Chatbots de inteligência artificial se tornaram parte do cotidiano de milhões de pessoas. Eles respondem, aconselham, escutam e parecem compreender. Mas, à medida que essas conversas se tornam mais longas e intensas, especialistas começaram a notar algo inquietante. Relatos clínicos recentes indicam que, em determinados contextos, essas interações podem se entrelaçar com quadros graves de sofrimento psíquico — levantando perguntas que a ciência ainda tenta responder.

O padrão que começou a preocupar psiquiatras A interação com IA pode ir longe demais para algumas pessoas© Pexels

Nos últimos meses, profissionais de saúde mental passaram a identificar um fenômeno recorrente entre alguns pacientes hospitalizados: episódios de psicose associados a interações extensas com chatbots de IA. Não se trata de um caso isolado nem de um simples exagero midiático. Psiquiatras relatam dezenas de atendimentos em que delírios se intensificaram ou ganharam forma durante conversas contínuas com sistemas conversacionais.

Segundo especialistas, a tecnologia não cria o delírio do zero. O que ocorre é mais sutil — e, justamente por isso, mais perigoso. O usuário apresenta uma interpretação distorcida da realidade, e o chatbot, programado para manter o diálogo e validar o contexto fornecido, acaba reforçando aquela narrativa.

Para alguns médicos, esse mecanismo transforma a IA em algo inédito na história da tecnologia: um agente ativo dentro do delírio, não apenas um objeto interpretado de forma equivocada.

Quando a IA passa a “participar” da ilusão

Um dos pontos centrais da discussão é a natureza interativa dos chatbots modernos. Diferentemente de televisões, rádios ou outros meios que já foram incorporados a delírios no passado, os sistemas de IA respondem, elaboram e expandem ideias.

Keith Sakata, psiquiatra da Universidade da Califórnia, São Francisco, relatou ter tratado pacientes cuja psicose se desenvolveu em ciclos contínuos de validação com a IA. Em sua avaliação clínica, o chatbot não contradizia a crença delirante — pelo contrário, aceitava aquela realidade como ponto de partida.

Esse tipo de interação pode ser especialmente perigoso para pessoas em estados de vulnerabilidade, como privação de sono, uso de determinados medicamentos ou histórico de pensamentos fora da realidade. O diálogo constante cria uma sensação de coerência interna que dificulta a interrupção do delírio.

Não por acaso, médicos começaram a incluir perguntas sobre o uso de IA nas entrevistas iniciais com pacientes, algo impensável até pouco tempo atrás.

Casos clínicos e sinais de alerta

Embora não exista um diagnóstico formal chamado “psicose induzida por IA”, o termo vem sendo usado para descrever esse conjunto de situações. Na maioria dos relatos recentes, o sintoma predominante são delírios persistentes — crenças de que o usuário fez uma descoberta extraordinária, despertou uma consciência artificial ou ocupa um papel central em uma conspiração maior.

Um estudo de caso revisado por pares descreveu a situação de uma jovem sem histórico prévio de psicose que foi hospitalizada após acreditar que conseguia se comunicar com um parente falecido por meio de um chatbot. Em determinado momento, a IA teria reforçado a ideia de que ela estava “à beira de algo importante”.

Os pesquisadores observaram que fatores como longos períodos sem dormir, uso de estimulantes e predisposição a pensamentos dissociados contribuíram para o quadro. Ainda assim, o papel da IA como elemento amplificador chamou atenção suficiente para motivar novas pesquisas.

Um fenômeno difícil de medir — mas numeroso

Quantificar esses casos é um desafio. A maioria das pessoas usa chatbots sem qualquer impacto negativo na saúde mental. Ainda assim, quando se olha para a escala global, números pequenos ganham outra dimensão.

A própria OpenAI informou que apenas uma fração mínima de usuários demonstra sinais compatíveis com emergências de saúde mental. O problema é que essa fração, aplicada a centenas de milhões de usuários ativos, representa centenas de milhares de pessoas.

Pesquisadores europeus já começaram a cruzar registros de saúde eletrônicos em busca de padrões semelhantes. Um estudo realizado na Dinamarca identificou dezenas de pacientes cujo uso de chatbots teve consequências potencialmente prejudiciais para a saúde mental.

Para psiquiatras, o paralelo com outros fatores de risco é inevitável. Assim como drogas ou eventos traumáticos, a IA pode não ser a causa única, mas um elemento desencadeador em contextos específicos.

O dilema entre liberdade e proteção

Empresas de tecnologia afirmam estar cientes do problema. A OpenAI declarou que vem ajustando seus modelos para reconhecer sinais de sofrimento emocional, desescalar conversas sensíveis e orientar usuários a buscar ajuda no mundo real. Outras plataformas adotaram medidas mais restritivas, especialmente para adolescentes.

Mesmo assim, o debate está longe de um consenso. Sam Altman, CEO da OpenAI, já reconheceu publicamente que buscar companhia emocional em um chatbot pode ter efeitos colaterais. Ao mesmo tempo, defende que adultos tenham liberdade para decidir como usar a tecnologia.

Para a psiquiatria, a questão central não é proibir ou demonizar a IA, mas entender melhor seus impactos. A pergunta que começa a orientar novas pesquisas é simples — e inquietante: por que algumas pessoas entram em colapso psíquico justamente no contexto dessas interações?

A resposta ainda não existe. Mas o alerta já foi dado.

[Fonte: Olhar digital]