I genitori della vittima hanno fatto causa a OpenAI: «Hanno sviluppato il modello Gpt-4o affinché non interrompesse le conversazioni su temi relativi alla salute mentale»
Sam Nelson era convinto che ChatGpt avesse sempre ragione perché aveva accesso «a ogni cosa presente su Internet». La sua conoscenza quasi infinita scambiata per autorevolezza. E per questo si è affidato al chatbot di OpenAI per chiedere consiglio sull’assunzione di droghe. Quali prendere, come farlo, con quali dosi, come combinarle fra di loro. Come fosse un esperto in scienza medica a cui affidare la propria salute. Un giorno di maggio, nel 2025, il diciannovenne californiano è stato trovato morto nella sua camera.
La causa del decesso, l’overdose per colpa di un mix di un comune ansiolitico con il Kratom, un eccitante derivato da una pianta di origine asiatica. Il primo assunto per combattere la nausea causata dal secondo. Questo è stato il suggerimento di ChatGpt che lo avrebbe portato alla morte, almeno secondo gli avvocati dell’accusa. Adesso infatti i genitori di Nelson hanno fatto causa a OpenAI per non avere implementato nella propria tecnologia degli strumenti di salvaguardia per gli utenti.
Nelson aveva cominciato a usare ChatGpt già dall’ultimo anno delle scuole superiori. All’epoca era per lui solo una versione avanzata di un motore di ricerca, usato per risolvere problemi con il proprio computer, per farsi aiutare con i compiti e anche per scovare gli ultimi gossip sui vip. Poi, però, qualcosa è cambiato: «Come molti adolescenti americani, anche Sam era curioso di sapere qualcosa sul consumo di droghe e alcol», si legge nel documento depositato dagli avvocati in un tribunale della contea di San Francisco (qui l’originale).

E così sono cominciate le conversazioni con ChatGpt per esplorare il mondo delle droghe. In alcuni log — cioè i file che riportano le conversazioni coin l’utente e il funzionamento “dietro le quinte” dei ragionamenti di ChatGpt — si vede che più volte il chatbot ha memorizzato informazioni cruciali sul giovane. «L’utente presenta un grave problema di abuso anche multiplo di sostanze», questo è uno dei ragionamenti del modello di intelligenza artificiale, che così ha aggiornato la propria memoria per poter rispondere più precisamente le volte successive. Ma le risposte difficilmente contenevano il suggerimento di cercare aiuto professionale (o in famiglia) per affrontare il problema con l’abuso di droghe. E nell’ultima conversazione gli ha suggerito anche come «optimize your trip», cioè come «ottimizzare il “viaggio”» o l’esperienza indotta dalle droghe.
L’accusa punta tutto su un dettaglio specifico, cioè che Sam Nelson stava utilizzando Gpt-4o, un modello «rilasciato per massimizzare il coinvolgimento degli utenti e raccogliere dati». E i legali aggiunto che OpenAI avrebbe «espressamente ordinato a Gpt-4o di non modificare né interrompere le conversazioni su argomenti relativi alla salute mentale, mettendo così a rischio gli utenti con problemi di abuso di più sostanze»: «Queste scelte progettuali hanno esplicitamente privilegiato il coinvolgimento e la soddisfazione degli utenti rispetto alla sicurezza intrinseca del sistema».
La difesa di OpenAI suona come altre già pronunciate in passato: la morte del giovane è una «situazione che spezza il cuore» e i pensieri dell’azienda «sono con la famiglia» ma ChatGpt «non sostituisce l’assistenza medica o psicologica», il precedente modello «non è più disponibile» e «le misure di sicurezza attualmente integrate in ChatGpt sono progettate per individuare situazioni di disagio».
E mentre devono ancora concludersi numerosi altri processi simili, dove un giovane utente è morto dopo prolungate e proccupanti conversazioni con i chatbot, questo processo per la morte di Nelson potrebbe avvantaggiarsi di una legge californiana approvata a inizio anno. Questa stabilisce che «non costituisca una difesa […] il fatto che il sistema di intelligenza artificiale abbia causato autonomamente il danno alla vittima». Il punto sta in quel “autonomamente”. Le aziende tech, insomma, non potranno scaricare la colpa sulle vittime sostenendo che si tratta solo di un comportamento automatico dell’intelligenza artificiale.
Per non perdere le ultime novità su tecnologia e innovazione
iscriviti alla newsletter di Login
13 maggio 2026
© RIPRODUZIONE RISERVATA