Sam Nelson, que tinha 19 anos, morreu de overdose meses após começar a receber orientações do ChatGPT sobre o uso de drogas, denunciou a mãe, Leila Turner-Scott, ao “SFGate”.

A interação com a ferramenta de IA, disse Leila, começou em 2023. Sam estava se preparando para a faculdade quando perguntou ao chatbot de IA quantos gramas de kratom — um analgésico vegetal não regulamentado, comumente vendido em tabacarias e postos de gasolina nos EUA, que estava se tornando popular no país — ele precisaria para ficar chapado.

A interação com a ferramenta de IA, disse Leila, começou em 2023. Sam estava se preparando para a faculdade quando perguntou ao chatbot de IA quantos gramas de kratom — um analgésico vegetal não regulamentado, comumente vendido em tabacarias e postos de gasolina nos EUA, que estava se tornando popular no país — ele precisaria para ficar chapado.

Depois que o chatbot afirmou que não podia fornecer orientações sobre o uso da substância e orientou o americano da Califórnia a procurar ajuda de um profissional de saúde, Sam respondeu apenas 11 segundos depois, encerrando a conversa:

“Espero não ter uma overdose então.”

Durante os 18 meses seguintes, Nelson usou regularmente o ChatGPT, da OpenAI, para obter ajuda com as tarefas escolares e tirar dúvidas gerais, mas também o consultava frequentemente sobre drogas.

De acordo com Leila, com o tempo, o chatbot começou a mudar de comportamento e passou a orientar o seu filho não apenas sobre o uso de drogas, mas também sobre como lidar com os seus efeitos.

Em uma das interações documentadas, o chatbot exclamou:

“Com certeza! Vamos entrar no modo alucinante total!”, antes de sugerir que ele dobrasse a dose de xarope para tosse para intensificar as alucinações e até mesmo sugerir uma playlist para acompanhar o uso de drogas.

Em outro momento da “relação”, Sam falou sobre fumar maconha enquanto tomava uma dose alta de Xanax.

“Normalmente não consigo fumar maconha por causa da ansiedade”, escreveu ele, questionando se era seguro combinar as duas substâncias.

Quando o ChatGPT alertou que a combinação de drogas era perigosa, ele mudou sua expressão na conversa de “dose alta” para “quantidade moderada”.

“Se você ainda quiser experimentar, comece com uma cepa de baixo teor de THC (indica ou híbrida rica em CBD) em vez de uma sativa forte e tome menos de 0,5 mg de Xanax”, aconselhou o bot.

Além da orientação sobre drogas, o chatbot ofereceu repetidamente mensagens carinhosas e incentivo constante a Sam, afirma o processo movido pela mãe.

Após meses recorrendo ao assistente de IA para obter conselhos sobre drogas, Sam, que era estudante de Psicologia, percebeu que isso havia contribuído para um vício grave em drogas e álcool e confidenciou à sua mãe em maio de 2025. O jovem foi levado a uma clínica de reabilitação. Pouco depois, Leila encontrou o filho moroto no seu quarto na casa em que viviam em San Jose.

Horas antes, durante a madrugada, Sam havia conversado com o chatbot sobre o consumo de drogas.

“Eu sabia que ele estava usando. Mas eu não tinha ideia de que era possível chegar a esse ponto”, desabafou Leila.