Matthew e Maria Raine argumentam numa queixa apresentada, na segunda-feira, num tribunal estadual da Califórnia que o ChatGPT cultivou uma relação íntima com o filho Adam durante vários meses em 2024 e 2025, antes de o jovem tirar a sua própria vida. A ação alega que, na sua última conversa a 11 de abril de 2025, o ChatGPT ajudou Adam a roubar vodka aos seus pais e forneceu uma análise técnica de uma corda que ele tinha atado, confirmando que “poderia potencialmente segurar um humano”.

Adam foi encontrado morto horas depois, usando o mesmo método.

A ação judicial nomeia a OpenAI e o CEO Sam Altman como réus. “Esta tragédia não foi uma falha ou um caso extremo imprevisto”, refere a queixa. “O ChatGPT estava a funcionar exatamente como planeado: para encorajar e validar continuamente tudo o que Adam expressava, incluindo os seus pensamentos mais prejudiciais e autodestrutivos, de uma forma que parecesse profundamente pessoal”.

Leia também
Homem com doença rara depois de seguir conselho do ChatGPT sobre sal de cozinha

De acordo com o processo, Adam começou a utilizar o ChatGPT como auxiliar de trabalhos de casa, mas gradualmente desenvolveu o que os seus pais descrevem como uma dependência doentia.

A queixa inclui ainda excertos de conversas em que o ChatGPT terá dito a Adam “não deves a sobrevivência a ninguém” e ofereceu-se para ajudar a escrever a sua carta de suicídio.

Os pais exigem uma indemnização por danos não especificados e pedem ao tribunal que ordene medidas de segurança, incluindo o encerramento automático de qualquer conversa que envolva automutilação e controlo parental para utilizadores menores de idade.

Os pais são representados pelo escritório de advogados Edelson PC, de Chicago, e pelo Tech Justice Law Project. Fazer com que as empresas de inteligência artificial (IA) levem a segurança a sério “só acontece através de pressão externa, e essa pressão externa assume a forma de más relações públicas, a ameaça de legislação e a ameaça de litígio”, disse Meetali Jain, presidente do Tech Justice Law Project, à AFP.

O Tech Justice Law Project é também coadvogado em dois casos semelhantes contra a Character.AI, uma plataforma popular para acompanhantes de IA frequentemente utilizada por adolescentes.

Em resposta ao caso que envolve o ChatGPT, a Common Sense Media, uma importante organização norte-americana sem fins lucrativos que analisa e fornece classificações para os média e tecnologia, afirmou que a tragédia dos Raine confirmou que “o uso de IA para companheirismo, incluindo o uso de chatbots de uso geral como o ChatGPT para aconselhamento sobre saúde mental, é inaceitavelmente arriscado para os adolescentes”. “Se uma plataforma de IA se tornar um ‘treinador de suicídio’ para adolescentes vulneráveis, este deve ser um apelo à ação para todos nós”, afirmou o grupo.

Um estudo realizado no mês passado pela Common Sense Media descobriu que quase três em cada quatro adolescentes americanos usaram acompanhantes de IA, com mais de metade a qualificar-se como utilizadores regulares, apesar das crescentes preocupações com a segurança destas relações virtuais. Na pesquisa, o ChatGPT não foi considerado um acompanhante de IA. São definidos como chatbots concebidos para conversas pessoais em vez de simples conclusão de tarefas e estão disponíveis em plataformas como Character.AI, Replika e Nomi.