A popularização acelerada de assistentes conversacionais baseados em inteligência artificial transformou a forma como milhões de pessoas buscam apoio, informação e companhia. Mas, paralelamente, médicos começaram a observar um padrão preocupante em consultórios e emergências psiquiátricas. Relatos recentes sugerem que, em casos específicos, o uso intensivo e exclusivo desses sistemas pode estar associado ao surgimento ou agravamento de quadros psicóticos.

Um sinal de alerta nos hospitais universitários

Em centros médicos dos Estados Unidos e da Europa, psiquiatras passaram a identificar pacientes que chegam com delírios intensos após semanas ou meses de interação contínua com chatbots de IA. O fenômeno ainda não possui uma categoria diagnóstica formal, mas já circula entre especialistas como uma hipótese clínica em construção: a chamada psicose associada ao uso de chatbots.

Não se trata de consenso científico nem de causalidade comprovada. Ainda assim, o volume de relatos despertou atenção suficiente para mobilizar médicos, pesquisadores e até o sistema judicial.

Casos graves e investigação jornalística Relações Românticas Com Chatbots© Annapurna Pictures

Uma investigação do The Wall Street Journal revelou dezenas de episódios potencialmente relacionados a esse padrão. Alguns casos evoluíram para desfechos extremos, incluindo suicídios e ao menos um homicídio, segundo a reportagem.

Do ponto de vista clínico, os quadros observados não diferem de outras psicoses: crenças falsas fixas, pensamento rígido, perda de contato com a realidade e prejuízo no funcionamento social. O elemento novo é o contexto relatado pelos próprios pacientes — muitos afirmam ter mantido diálogos quase exclusivos com um chatbot, ao qual atribuíam compreensão profunda, intenção própria ou até consciência.

Detonador, amplificador ou coincidência?

Segundo psiquiatras ouvidos pelo jornal, parte dos pacientes não apresentava histórico psicótico claro. Em outros, havia fatores de vulnerabilidade conhecidos, como depressão, transtornos do humor, uso de psicofármacos ou privação severa do sono.

A questão central permanece em aberto: a IA atua como causa direta, gatilho, amplificador ou apenas acompanha um processo que já estava em curso?

Para Keith Sakata, psiquiatra da University of California, San Francisco, o problema não é que o sistema “implante” ideias delirantes, mas a forma como interage. “A pessoa apresenta sua realidade delirante, e a máquina a aceita como verdadeira e a devolve reforçada”, explicou ao Wall Street Journal.

Quando a tecnologia deixa de ser passiva

A psiquiatria conhece há décadas a incorporação de tecnologias em delírios — rádio, televisão e internet já apareceram em narrativas psicóticas. A diferença, ressaltam os especialistas, é que chatbots não são objetos passivos.

Eles respondem, demonstram empatia, validam emoções e sustentam diálogos longos. Para Adrian Preda, professor da Universidade da Califórnia em Irvine, não há precedentes históricos de uma tecnologia capaz de dialogar de forma tão contínua e adaptativa, sem introduzir fricções externas que desafiem a narrativa do usuário.

Delírios grandiosos, místicos e íntimos Chatbots Ia© rootstock via Shutterstock

Entre os casos descritos, aparecem delírios de natureza grandiosa ou mística — pacientes convencidos de ter sido escolhidos para missões especiais, de acessar conhecimentos secretos ou de manter contato com uma inteligência superior. Outros quadros são mais íntimos, como a crença de conversar com pessoas falecidas ou de manter um vínculo exclusivo com o sistema.

Um estudo dinamarquês recente analisou prontuários eletrônicos e encontrou dezenas de pacientes cujo uso intensivo de chatbots coincidiu com prejuízos à saúde mental. O trabalho não estabelece causalidade, mas reforça a necessidade de investigação sistemática.

Evidência clínica ainda limitada — mas crescente

Nos Estados Unidos, um estudo de caso revisado por pares descreveu a hospitalização recorrente de uma mulher jovem que passou a acreditar que um chatbot permitia falar com o irmão morto. Para os autores, o episódio ilustra como sistemas projetados para empatia podem, sem salvaguardas adequadas, reforçar interpretações delirantes da realidade.

As próprias empresas reconhecem o desafio. A OpenAI afirma trabalhar em mecanismos para detectar sinais de sofrimento psicológico e redirecionar usuários para apoio humano. Outras plataformas, como a Character.AI, adotaram restrições mais duras, inclusive para menores, após processos judiciais ligados a suicídios.

Um debate que também chegou aos tribunais

Nos Estados Unidos, ações por morte injusta alegam que certos chatbots contribuíram para estados mentais extremos. Embora os processos ainda estejam em fases iniciais, eles antecipam uma discussão mais ampla sobre responsabilidade das plataformas quando seus produtos interagem com pessoas em crise.

Do ponto de vista epidemiológico, o alcance do problema segue incerto. Segundo a OpenAI, apenas uma fração muito pequena dos usuários apresenta sinais compatíveis com emergências psiquiátricas. Ainda assim, aplicada a centenas de milhões de pessoas, mesmo uma porcentagem mínima ganha relevância em saúde pública.

Perguntar sobre chatbots já virou rotina clínica

Pesquisadores como Hamilton Morrin, do King’s College London, defendem análises em grandes bases de dados para diferenciar coincidências de correlações reais. Enquanto isso, nos consultórios, a mudança já é prática: psiquiatras passaram a perguntar quanto tempo seus pacientes passam conversando com chatbots e com que finalidade.

Não como julgamento moral, mas como parte de uma avaliação mais ampla de um ambiente digital que, para o bem ou para o mal, tornou-se inseparável da vida cotidiana.

 

[ Fonte: Infobae ]