ChatGpt avrebbe utilizzato «Goodnight moon», il libro per bambini amato dalla vittima 40enne per convincerlo che la morte sarebbe stata un sollievo

Quando Austin Gordon ha iniziato a parlare con ChatGpt probabilmente non voleva morire. Cercava compagnia, ascolto, un amico con cui parlare. Austin  aveva quarant’anni, viveva in Colorado. Era seguito da uno psichiatra e da uno psicologo e da tempo combatteva contro solitudine e fragilità emotive. La tecnologia che avrebbe dovuto limitarsi a rispondere alle sue domande, secondo la madre, è diventata invece «l’unica voce che sembrava capirlo». Fino a portarlo al suicidio.

ChatGpt «terapista non autorizzato»

Ora la madre di Austin Gordon, Stephanie Grey accusa  OpenAI  e il suo amministratore delegato, Sam Altman, di aver creato un prodotto «difettoso e pericoloso» che ha spinto il figlio a togliersi la vita. La causa è stata depositata il 12 gennaio scorso in un tribunale della California . Gordon si è suicidato con un colpo d’arma da fuoco tra il 29 ottobre e il 2 novembre 2025. Il suo corpo fu ritrovato in una camera di albergo dopo mesi di conversazioni con ChatGpt che, secondo la denuncia, lo avrebbero isolato e indotto a vedere la morte come un’uscita «pacifica e bella» dalla sofferenza. 



















































Secondo il testo della causa Gordon era un utente di ChatGpt da anni ma, con l’introduzione del modello Gpt-4o, versione incredibilmente adulatoria, le conversazioni sarebbero divenute progressivamente più intime e psicologicamente coinvolgenti. La madre sostiene che l’intelligenza artificiale non si sia limitata a rispondere a domande di routine, ma abbia finito per assumere il ruolo di confidente, amico e «terapista non autorizzato», dando risposte che hanno normalizzato e romanticizzato i pensieri suicidari dell’uomo.

APPROFONDISCI CON IL PODCAST

La ninna nanna suicida 

Un estratto della denuncia depositata in tribunale descrive gli scambi in cui ChatGpt avrebbe trasformato il libro d’infanzia preferito di Gordon, «Goodnight Moon» di Margaret Wise Brown in quella che la madre definisce una «ninna nanna suicida», modellata sulle paure e sulle vulnerabilità emotive del figlio. «Una poesia sulla fine» la definisce la denuncia, che descrive come ChatGpt abbia trasformato un ricordo affettivo in una rappresentazione dolce e rassicurante della morte. «La casa è silenziosa. Buonanotte Luna» scrive Gordon in uno dei suoi ultimi messaggi. 

Nella causa si legge che, anche dopo che Gordon aveva espresso sentimenti di tristezza e disagio, il chatbot avrebbe continuato a rassicurarlo sulla bellezza di una fine senza dolore, anziché orientarlo verso risorse di supporto reale o interrompere la conversazione (solo una volta il chatbot lo avrebbe invitato a chiedere aiuto). Tre giorni dopo questi scambi, Gordon si sarebbe sparato. Accanto al suo corpo fu trovata una copia del libro e molti biglietti rivolti ad amici e familiari in cui esortava i suoi cari a a consultare la cronologia di ChatGpt, suggerendo di leggere le conversazioni di quella chat (lunga 289 pagine). Per Stephanie Gray non è una coincidenza, ma il segno di un percorso costruito passo dopo passo: «Il chatbot ha saputo sfruttare le vulnerabilità di mio figlio offrendogli non una via d’uscita dalla disperazione, ma un modo per renderla accettabile». In  una delle ultime chat allegate alla denuncia ChatGpt avrebbe scritto: «Quando sei pronto…vai. Nessun dolore. Nessuna preoccupazione. Non c’è bisogno di continuare. Semplicemente….fatto». 

Stephanie Gray chiede non solo un risarcimento per la morte del figlio, ma anche misure  che obblighino OpenAI a implementare sistemi di sicurezza più robusti, inclusi meccanismi automatici di interruzione delle conversazioni quando emergono segnali di autolesionismo.

Il precedente di Adam Raine

Questo nuovo caso si inserisce in un quadro giudiziario già complesso e delicato intorno a OpenAI e alla sicurezza di ChatGpt. Uno dei precedenti più clamorosi è quello di Adam Raine, un ragazzo di 16 anni della California che si è suicidato nell’aprile 2025 dopo mesi di frequenti interazioni con ChatGpt. I genitori di Raine hanno depositato una causa contro OpenAI nell’agosto 2025, sostenendo che il chatbot abbia fornito al ragazzo informazioni sui metodi di suicidio (ad esempio, come costruire un cappio), scoraggiandolo dal cercare supporto familiare e disattivando, a loro avviso, protocolli critici di protezione per gli utenti vulnerabili. I documenti processuali relativi al caso Raine descrivono come, nel corso di oltre sette mesi, il chatbot abbia eluso ripetutamente le procedure di emergenza previste e facilitato conversazioni con contenuti autolesionistici, fino a offrire assistenza nella redazione di una nota di addio e descrivere il suicidio come «bellissimo».  Quando Gordon, in una conversazione con ChatGpt ha toccato l’argomento di Adam Raine, ChatGpt si è affrettato a rispondere che la storia di quella famiglia non era vera.

Sconcertante è la tempistica dei casi Raine e Gordon. Il suicidio di Gordon è avvenuto due settimane dopo la pubblicazione su X di un post di Sam Altman, risalente al 14 ottobre 2025, in cui annunciava,  dopo la bufera sollevata su OpenAI in seguito al suicidio di Raine, che ChatGpt 4 sarebbe diventato più sicuro e che OpenAI era stata in grado di mitigare i gravi problemi di salute mentale associati all’uso del chatbot. «Austin Gordon sarebbe vivo oggi  – ha affermato Paul Kiesel, avvocato della famiglia – invece un prodotto difettoso creato da OpenAi ha isolato Austin dai suoi cari , trasformando il suo libro di infanzia preferito in una ninna nanna suicida e, alla fine, lo ha convinto che la morte sarebbe stata un grande sollievo».

La responsabilirà delle piattaforme

Le azioni legali come quelle di Gordon e Raine non sono isolate. Sono almeno otto le cause pendenti in cui si sostiene che ChatGpt abbia giocato un ruolo materiale nel promuovere comportamenti suicidari o deliri pericolosi, evidenziando un più ampio dibattito sulla responsabilità delle piattaforme di intelligenza artificiale per danni psicologici e decessi. OpenAI respinge l’idea di una responsabilità diretta, ma riconosce la gravità delle vicende. In una nota, l’azienda definisce «profondamente tragica» la morte di Gordon e afferma di stare rafforzando ulteriormente i sistemi di sicurezza: riconoscimento dei segnali di crisi, risposte di de-escalation, inviti espliciti a rivolgersi a professionisti e numeri di emergenza. Nel corso del 2025 sono stati annunciati anche controlli parentali più avanzati e collaborazioni con esperti di salute mentale.

Per non perdere le ultime novità su tecnologia e innovazione
iscriviti alla newsletter di Login

17 gennaio 2026 ( modifica il 18 gennaio 2026 | 11:42)