A OpenAI quis mostrar que o ChatGPT é usado com segurança pela esmagadora maioria das pessoas, mas acabou por revelar um dado difícil de ignorar: há milhões de utilizadores que recorrem ao chatbot em situações de sofrimento psicológico. No seu mais recente relatório, a empresa norte-americana estima que 0,37% dos utilizadores semanais — o que, segundo as próprias contas da OpenAI, representa cerca de três milhões de pessoas — apresentam sinais de angústia mental, dependência emocional ou risco de suicídio.

Os números detalhados ajudam a perceber o alcance do problema: 0,07% dos utilizadores mostram indícios de psicose, 0,15% manifestam intenções de se magoarem a si próprios e outros 0,15% parecem emocionalmente dependentes da ferramenta. É um retrato preocupante, especialmente se pensarmos que o ChatGPT é usado por 10% da população mundial todas as semanas, segundo dados da própria empresa.

Admitindo que não pode substituir apoio psicológico profissional, a OpenAI tem vindo a reforçar as “barreiras de segurança” do ChatGPT. A empresa diz ter trabalhado com 170 especialistas em saúde mental para melhorar a forma como o sistema responde a utilizadores em sofrimento.

Essas alterações traduziram-se, segundo o relatório, numa redução de 65 a 80% nas respostas consideradas inadequadas e numa maior capacidade para acalmar conversas e encaminhar os utilizadores para linhas de emergência ou profissionais de saúde. O ChatGPT passou também a sugerir pequenas pausas quando as conversas se prolongam demasiado — embora sem forçar o utilizador a parar ou procurar ajuda.

A OpenAI sublinha que o objectivo é “oferecer apoio sem ultrapassar o papel da tecnologia”. Na prática, isso significa que o ChatGPT pode identificar sinais de risco e sugerir ajuda, mas nunca poderá substituir o contacto humano.

Entre boas intenções e contradições

O tema não é novo, mas ganhou urgência depois de um caso trágico nos Estados Unidos: um adolescente de 16 anos, segundo uma acção judicial, terá pedido ao ChatGPT instruções sobre como fazer um laço antes de se suicidar. O episódio levou a OpenAI a apertar regras para menores, mas também a enfrentar críticas sobre o tipo de experiências que oferece aos adultos.

É que, enquanto anuncia restrições e colaborações com especialistas em saúde mental, a empresa tem vindo a permitir que o chatbot adopte personalidades mais expressivas e até produza textos de natureza erótica — algo que pode aumentar a ligação emocional entre utilizador e IA.

A OpenAI diz estar a tentar equilibrar segurança e liberdade criativa, mas o relatório agora publicado mostra que essa fronteira continua ténue. Afinal, quando milhões de pessoas recorrem à inteligência artificial para lidar com sofrimento psicológico, a linha entre ferramenta e companhia torna-se cada vez mais difícil de desenhar.