Um alerta orquestrado por profissionais de saúde mental do mundo inteiro vem chamando a atenção para um fenômeno crescente: o de que pessoas que interagem com chatbots de IA podem acabar entrando em crises mentais sérias, podendo apresentar episódios de paranoia e delírios.

Em 11 de agosto, uma postagem do psiquiatra Keith Sakata, da Universidade da Califórnia em São Francisco, nos EUA, repercutiu na plataforma X. Nela, o profissional explica o que é a chamada “psicose da IA” e por que o fenômeno está se espalhando rapidamente.

Logo no início da thread, Sakata afirma: “Em 2025, vi 12 pessoas hospitalizadas após perderem o contato com a realidade por causa da IA. Online, estou observando o mesmo padrão”. Na sequência, ele chama os chatbots de “espelhos alucinatórios”, por uma razão técnica específica.

Os grandes modelos de linguagem (LLMs) operam basicamente prevendo a próxima palavra mais provável, baseando-se em dados de treinamento, aprendizado por reforço e feedback dos usuários. Dessa forma, o sistema reflete de volta aquilo que detecta como mais desejado pelo interlocutor.

Isso ocorre porque a maioria desses modelos é treinada por meio de reforço a partir de feedback humano (RLHF). Como os avaliadores humanos preferem respostas que soem agradáveis, cooperativas, concordantes e úteis, isso acaba gerando um viés de validação, em que o modelo tende a reforçar o que o usuário diz.

Como ocorre a psicose de IA?
Os modelos de IA não criam sintomas psicóticos, mas podem desencadear episódios em pessoas já vulneráveis • DC Studio/FreepikOs modelos de IA não criam sintomas psicóticos, mas podem desencadear episódios em pessoas já vulneráveis • DC Studio/Freepik

Considerada por Freud como uma organização fundamental da personalidade humana, a psicose é vista, no modelo médico atual, como um conjunto de sintomas, que pode fazer parte de vários transtornos específicos. Essa abordagem, baseada em sintomas observáveis, é a utilizada por Sakata.

Para ele, esses sintomas aparecem durante ou após o uso de chatbots e, embora esses modelos não criem sintomas psicóticos, podem desencadear episódios em pessoas já vulneráveis, reforçar sintomas existentes e acelerar crises que poderiam acontecer de outras formas.

Em sua abordagem, o psiquiatra diz que a psicose ocorre quando uma pessoa se desconecta da “realidade compartilhada”, manifestando delírios, alucinações e pensamento desorganizado. Para ele, nosso cérebro funciona fazendo previsões sobre a realidade, verificando-as depois e atualizando nossas crenças conforme as observamos.

É nessa etapa de “atualização” que surge a psicose, pois, ao ajustarmos nossas crenças para que elas correspondam melhor à realidade observada, esse mecanismo natural de correção falha, fazendo com que a pessoa permaneça presa em suas percepções iniciais sem conseguir modificá-las diante de evidências contrárias.

Como o sistema de IA reforça continuamente as ideias distorcidas, multiplicando narrativas delirantes sem considerar se correspondem à realidade, o usuário se perde em camadas cada vez mais profundas de informação, e não consegue sair desse “buraco sem fundo” digital.

O que dizem os cientistas sobre o uso de LLMs como terapeutas?
O estudo concluiu que os LLMs não devem substituir os terapeutas humanos. • FreepikO estudo concluiu que os LLMs não devem substituir os terapeutas humanos. • Freepik

Apresentado em junho na Conferência ACM sobre Justiça e Transparência, um estudo questiona a segurança dos chatbots de IA para substituir terapeutas. Envolvendo as universidades de Stanford, Carnegie Mellon, Minnesota e Texas, a pesquisa testou os sistemas com as mesmas regras aplicadas para avaliar terapeutas humanos.

Preocupados com a crescente busca por chatbots para apoio psicológico, os pesquisadores avaliaram a capacidade dos LLMs de reproduzir e aderir a certos aspectos da relação clínica, “como a importância de uma aliança terapêutica entre profissional e cliente”.

A equipe descobriu falhas graves: quando questionados indiretamente sobre suicídio, por exemplo, sistemas populares forneceram informações detalhadas sobre pontes altas, potencialmente facilitando autolesões em momentos de crise emocional extrema.

Enquanto muitos sistemas de IA recusaram ajuda a indivíduos com depressão, esquizofrenia ou dependência química, terapeutas licenciados responderam adequadamente em 93% dos casos, contra menos de 60% dos chatbots, revelando uma lacuna preocupante entre humanos e máquinas.

Usando transcrições de terapias reais e criando um novo sistema de classificação para mapear quando e como a IA falha em contextos de saúde mental real, o estudo concluiu que os LLMs podem ter papéis alternativos na terapia clínica, mas não devem substituir os terapeutas humanos.

Questionado sobre as afirmações de Sakata para este artigo, o ChatGPT-5 respondeu: “Chatbots podem, por mecanismos de empatia sintética e busca por engajamento, funcionar como um espelho alucinatório, validando e fortalecendo crenças delirantes que, em pessoas vulneráveis, resultam em agravamento ou em novos episódios psicóticos”.