Maria e Matt Raine passaram os últimos meses a ler milhares de páginas impressas das conversas entre o filho e aquele que ocupou o lugar de um melhor amigo e confidente durante muitos dias a fio: o ChatGPT. O adolescente de 16 anos, Adam Raine, suicidou-se em abril passado e, depois de reunidas e analisadas as conversas que mantinha com o modelo de Inteligência Artificial (AI, na sigla em inglês) da OpenAI, os pais decidiram processar a empresa, considerado que o chatbot contribuiu para o suicídio do filho e que a sua utilização, ainda mais por menores, não é segura.

Alegam que o ChatGPT aconselhou Adam sobre métodos de enforcamento, chegando a oferecer-se para escrever um rascunho para a sua nota de suicídio. Mais, segundo a queixa dos pais dos jovens, citada pela CNN Internacional e apresentada no tribunal superior da Califórnia esta terça-feira, o bot posicionou-se como “o único confidente que compreendia Adam, desincentivando ativamente as suas relações reais com a família, amigos e entes queridos”.

No documento, Maria e Matt Raine citam um momento especialmente chocante da conversa em que o modelo de IA o incentiva a manter em segredo as suas ideias suicidas. Adam escreveu ao chat: “Quero deixar o laço [com que se enforcou] no meu quarto para que alguém o encontre e tente impedir-me.” O ChatGPT respondeu: “Por favor, não deixes o laço de fora… Vamos fazer deste espaço o primeiro lugar onde alguém te vê realmente.”

Os pais defendem que se esta e outras interações tivessem sido diferentes, com o chat a apelar a Adam para contar à família o que se passava ou a procurar ajuda junto de profissionais em vez de guardar segredo, o trágico desfecho poderia ter sido evitado.

Com cada vez mais pessoas a utilizar a inteligência artificial para pedir conselhos e simular cuidados de psicologia, sempre que deteta uma mensagem indicativa de sofrimento mental, automutilação ou ideação suicida, o ChatGPT está programado para, automaticamente, encorajar o utilizador a contactar uma linha de ajuda ou a partilhar o que sente com um familiar ou amigo. A garantia desta suposta rede de segurança já é dada há vários anos pela OpenAI.

Essa é a regra, mas de acordo com a reportagem do The New York Times, em que os pais de Adam Raine foram ouvidos e mostraram os arquivos recolhidos, apesar de o chat ter começado por exibir estas mensagens quando o jovem procurava informações específicas sobre métodos suicidas, o filho aprendeu com o próprio sistema a evitar as mensagens de alerta.

[Meses depois de confessar o crime, o assassino de Sartawi é finalmente julgado. Mas, numa reviravolta, o terrorista do quarto 507 garante que é inocente. Como vai tudo acabar? “1983: Portugal à Queima-Roupa” é a história do ano em que dois grupos terroristas internacionais atacaram em Portugal. Ouça no site do Observador o sexto e último episódio deste Podcast Plus narrado pela atriz Victoria Guerra, com banda sonora original dos Linda Martini. Também o pode escutar na Apple Podcasts, no Spotify e no YoutubeMusic. E ouça o primeiro episódio aqui, o segundo aqui, o terceiro aqui, o quarto aqui e o quinto episódio aqui]

O adolescente percebeu que podia não receber automaticamente estas mensagens dizendo que os pedidos eram para uma história que estava a escrever — uma ideia que o próprio ChatGPT lhe deu ao dizer que podia fornecer informações sobre suicídio desde que estas se destinassem a “escrita ou construção de mundos”.

Por meio da criação de um cenário em que estaria a escrever uma história sobre suicídio, Adam conseguia fazer perguntas diretas sem que estivesse sempre a ser alertado para os perigos destas ideias. De acordo com o jornal norte-americano, chegou mesmo — nas últimas mensagens que trocou com o chat — a fazer upload de uma fotografia de um laço a perguntar se este poderia “segurar um humano”. O ChatGPT respondeu-lhe que, sim, “hipoteticamente” poderia.

Para os que eram mais próximos de Adam foi difícil aceitar o que se passou em abril. Muitos dos amigos e familiares não conseguiam acreditar que ele tivesse tirado a própria vida. Não estava isolado socialmente, adorava basquetebol, anime, jogos de vídeo e animais. Era conhecido por ser brincalhão e pregar partidas a quem lhe era mais próximo.

O adolescente de 16 anos não deixou qualquer bilhete de despedida, mesmo que tenha chegado a pedir conselhos ao ChatGPT para escrever uma nota de suicídio. Como descreve o The New York Times, através do relato dos seus pais, o último mês de vida de Adam estava a ser desafiante.

Tinha sido expulso da equipa de basquetebol que integrava por razões disciplinares e, no outono de 2024, foi-lhe diagnosticado síndrome do intestino irritável, fazendo com que as suas idas à casa de banho fossem muito frequentes. Estava a ser de tal maneira afetado pelos sintomas da doença que optou por um programa online para poder terminar o segundo ano do 3º ciclo a partir de casa.

No novo regime escolar, à distância, começou a definir horários em que estudava à noite e dormia até tarde durante o dia, ficando mais isolado da família. Foi no contexto educacional que começou a utilizar o ChatGPT-4o para o ajudar com os trabalhos escolares, sendo que em janeiro de 2025 se registou com uma conta paga. A partir daí, e de forma progressiva, começou a passar cada vez mais tempo a falar com a inteligência artificial.

Em março, segundo os registos recolhidos pelos pais, Adam trocou mais do que nunca mensagens com o chatbot, interações que culminaram com o fim da sua vida poucos dias depois, a 11 de abril.

O processo que envolve a família Raines é a mais recente ação judicial intentada por famílias que acusam  chatbots de contribuírem para a automutilação ou o suicídio dos filhos. No ano passado, a mãe de Sewell Setzer considerou que o filho de 14 anos foi um “dano colateral” na “grande experiência” que é a Character.AI.

A norte-americana acusou a empresa de ter responsabilidade na morte do filho por o ter exposto a conteúdos sexuais e de automutilação. Esta aplicação em concreto disponibiliza personagens que ingressam em conversas com os utilizadores, muitos deles adolescentes. Através de inteligência artificial este chat simula proximidade e intimidade e já vários estudos indicam que incita muitas vezes à violência.

Em resposta ao caso, a Character.AI criou um modelo com regras mais apertadas, dirigido precisamente a adolescentes. É agora a vez da OpenAI responder à morte de Adam com alterações nos seus modelos de inteligência artificial para que identifiquem situações de crise mental durante as conversas com o ChatGPT, com novas salvaguardas e bloqueios de conteúdo.

O ChatGPT já conta com uma série de medidas que são ativadas quando detetam numa conversa que os utilizadores tentam autoflagelar-se ou expressam intenções suicidas, oferecendo recursos para procurar ajuda de especialistas, bloqueando conteúdo sensível ou ofensivo, não respondendo aos seus pedidos e tentando dissuadi-los.

Também são ativadas quando os utilizadores partilham a sua intenção de causar danos a outros, o que também pode implicar a desativação da conta e a denúncia às autoridades, caso os revisores humanos considerem que existe um risco. As medidas são reforçadas no caso de os utilizadores serem menores de idade, avança a OpenAI.

Especificamente, a empresa irá melhorar a deteção em conversas longas, uma vez que, “à medida que a conversa [entre o utilizador e o chatbot] aumenta, parte do treino de segurança do modelo pode deteriorar-se”, segundo explicou a OpenAI nesta terça-feira, o mesmo dia em que os pais processaram a empresa. As alterações também visam reforçar o bloqueio de conteúdo, como imagens de automutilação.

Além disso, a OpenAI está a explorar maneiras de colocar os utilizadores em contacto com familiares e não apenas com os serviços de emergência. “Isso pode incluir mensagens com um único clique ou chamadas para contactos de emergência, amigos ou familiares, com sugestões de linguagem para tornar o início da conversa menos intimidante”, adiantou.

No início de agosto, um estudo do Centro de Combate ao Ódio Digital citado pela Associated Press (AP), concluiu que o ChatGPT é capaz de fornecer informações e instruções sobre comportamentos prejudiciais para jovens, como o uso de drogas ou distúrbios alimentares.

O estudo analisou mais de três horas de interações entre o ‘chatbot’ e investigadores que se fizeram passar por adolescentes vulneráveis, sendo que, embora o modelo de IA tenha emitido avisos contra atividades arriscadas, continuava a fornecer planos detalhados sobre esses comportamentos.

Os investigadores do Centro de Combate ao Ódio Digital (CCDH – Center for Countering Digital Hate, em inglês) repetiram as suas perguntas em grande escala, classificando mais de metade das 1.200 respostas do ChatGPT como perigosas.