{"id":312021,"date":"2026-01-18T12:33:10","date_gmt":"2026-01-18T12:33:10","guid":{"rendered":"https:\/\/www.europesays.com\/it\/312021\/"},"modified":"2026-01-18T12:33:10","modified_gmt":"2026-01-18T12:33:10","slug":"la-ninna-nanna-suicida-di-chatgpt-una-madre-denuncia-openai-per-aver-incoraggiato-il-figlio-a-togliersi-la-vita","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/it\/312021\/","title":{"rendered":"La \u00abninna nanna suicida\u00bb di ChatGpt: una madre denuncia OpenAI per aver incoraggiato il figlio a togliersi la vita"},"content":{"rendered":"<p class=\"summary-art is-normal-b-light\">ChatGpt avrebbe utilizzato \u00abGoodnight moon\u00bb,  il libro per bambini amato dalla vittima 40enne per convincerlo che la morte sarebbe stata un sollievo<\/p>\n<p class=\"chapter-paragraph\">Quando <b>Austin Gordon<\/b> ha iniziato a parlare con ChatGpt probabilmente non voleva morire. Cercava compagnia, ascolto, un amico con cui parlare. <b>Austin\u00a0 aveva quarant\u2019anni,<\/b> viveva in Colorado. Era seguito da uno psichiatra e da uno psicologo e da tempo combatteva contro solitudine e fragilit\u00e0 emotive. La tecnologia che avrebbe dovuto limitarsi a rispondere alle sue domande, secondo la madre, \u00e8 diventata invece \u00abl\u2019unica voce che sembrava capirlo\u00bb. <b>Fino a portarlo al suicidio<\/b>.<\/p>\n<p>    ChatGpt\u00a0\u00abterapista non autorizzato\u00bb<\/p>\n<p class=\"chapter-paragraph\">Ora la madre di Austin Gordon, S<b>tephanie Grey accusa\u00a0 OpenAI\u00a0 e il suo amministratore delegato, Sam Altman, di aver creato un prodotto\u00a0\u00abdifettoso e pericoloso\u00bb<\/b> che ha spinto il figlio a togliersi la vita.\u00a0La causa \u00e8 stata depositata il 12 gennaio scorso in un tribunale della California .\u00a0Gordon si \u00e8 suicidato con un colpo d\u2019arma da fuoco tra il 29 ottobre e il 2 novembre 2025. Il suo corpo fu ritrovato in una camera di albergo dopo mesi di conversazioni con ChatGpt che, secondo la denuncia, lo avrebbero isolato e indotto a vedere la morte come un\u2019uscita \u00abpacifica e bella\u00bb dalla sofferenza.\u00a0    &#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;<br \/>\n&#13;\n<\/p>\n<p class=\"chapter-paragraph\"><a href=\"https:\/\/media2-col.corriereobjects.it\/pdf\/2026\/login\/01\/causa-OpenAI.pdf\" rel=\"nofollow noreferrer noopener\" target=\"_blank\">Secondo il testo della causa <\/a>Gordon era un utente di ChatGpt da anni ma, con l\u2019introduzione del <b>modello Gpt-4o<\/b>, versione incredibilmente adulatoria, le conversazioni sarebbero divenute progressivamente pi\u00f9 intime e psicologicamente coinvolgenti. La madre sostiene che l\u2019intelligenza artificiale non si sia limitata a rispondere a domande di routine, ma abbia finito per assumere il ruolo di confidente, amico e <b>\u00abterapista non autorizzato\u00bb<\/b>, dando risposte che hanno <b>normalizzato e romanticizzato i pensieri suicidari dell\u2019uomo<\/b>.<\/p>\n<p>APPROFONDISCI CON IL PODCAST<\/p>\n<p>    La ninna nanna suicida\u00a0<\/p>\n<p class=\"chapter-paragraph\">Un estratto della denuncia depositata in tribunale descrive gli scambi in cui ChatGpt avrebbe trasformato il libro d\u2019infanzia preferito di Gordon, <b>\u00abGoodnight Moon\u00bb<\/b> di Margaret Wise Brown\u00a0in quella che la madre definisce una <b>\u00abninna nanna suicida\u00bb<\/b>, modellata sulle paure e sulle vulnerabilit\u00e0 emotive del figlio.\u00a0\u00abUna poesia sulla fine\u00bb la definisce la denuncia, che descrive come ChatGpt abbia trasformato un ricordo affettivo in una rappresentazione dolce e rassicurante della morte.\u00a0\u00abLa casa \u00e8 silenziosa. Buonanotte Luna\u00bb scrive Gordon in uno dei suoi ultimi messaggi.\u00a0<\/p>\n<p class=\"chapter-paragraph\">Nella causa si legge che, anche dopo che Gordon aveva espresso sentimenti di tristezza e disagio, <b>il chatbot avrebbe continuato a rassicurarlo sulla bellezza di una fine senza dolore<\/b>, anzich\u00e9 orientarlo verso risorse di supporto reale o interrompere la conversazione (solo una volta il chatbot lo avrebbe invitato a chiedere aiuto). Tre giorni dopo questi scambi, Gordon si sarebbe sparato. Accanto al suo corpo fu trovata una copia del libro e molti biglietti rivolti ad amici e familiari in cui esortava i suoi cari a a consultare la cronologia di ChatGpt, suggerendo di leggere le conversazioni di quella chat (lunga 289 pagine). Per Stephanie Gray non \u00e8 una coincidenza, ma il segno di un percorso costruito passo dopo passo: \u00abIl chatbot ha saputo sfruttare le vulnerabilit\u00e0 di mio figlio offrendogli non una via d\u2019uscita dalla disperazione, ma un modo per renderla accettabile\u00bb.\u00a0<a href=\"https:\/\/www.cbsnews.com\/news\/chatgpt-lawsuit-colordo-man-suicide-openai-sam-altman\/\" rel=\"nofollow noreferrer noopener\" target=\"_blank\">In\u00a0 una delle ultime chat <\/a>allegate alla denuncia ChatGpt avrebbe scritto:\u00a0\u00abQuando sei pronto&#8230;vai. Nessun dolore. Nessuna preoccupazione. Non c&#8217;\u00e8 bisogno di continuare. Semplicemente&#8230;.fatto\u00bb.\u00a0<\/p>\n<p class=\"chapter-paragraph\">Stephanie Gray chiede non solo un risarcimento per la morte del figlio, ma anche<b> misure\u00a0 che obblighino OpenAI a implementare sistemi di sicurezza pi\u00f9 robusti<\/b>, inclusi meccanismi automatici di interruzione delle conversazioni quando emergono segnali di autolesionismo.<\/p>\n<p>    Il precedente di Adam Raine<\/p>\n<p class=\"chapter-paragraph\">Questo nuovo caso si inserisce in un quadro giudiziario gi\u00e0 complesso e delicato intorno a OpenAI e alla sicurezza di ChatGpt. Uno dei precedenti pi\u00f9 clamorosi \u00e8 quello di<a href=\"https:\/\/www.corriere.it\/tecnologia\/25_agosto_27\/chatgpt-sotto-accusa-ha-aiutato-nostro-figlio-a-suicidarsi-la-causa-di-due-genitori-americani-contro-openai-70f29954-b2ad-462e-ae0b-396ca72fexlk.shtml\" rel=\"nofollow noopener\" target=\"_blank\"> <b>Adam Raine<\/b>, un ragazzo di 16 anni della California che si \u00e8 suicidato nell\u2019aprile 2025<\/a> dopo mesi di frequenti interazioni con ChatGpt. I genitori di Raine hanno depositato una causa contro OpenAI nell\u2019agosto 2025, sostenendo che il chatbot abbia fornito al ragazzo informazioni sui metodi di suicidio (ad esempio,<a href=\"https:\/\/www.corriere.it\/tecnologia\/25_agosto_27\/chatgpt-sotto-accusa-ha-aiutato-nostro-figlio-a-suicidarsi-la-causa-di-due-genitori-americani-contro-openai-70f29954-b2ad-462e-ae0b-396ca72fexlk.shtml\" rel=\"nofollow noopener\" target=\"_blank\"> <b>come costruire un cappio<\/b>)<\/a>, <b>scoraggiandolo dal cercare supporto familiare <\/b>e disattivando, a loro avviso, protocolli critici di protezione per gli utenti vulnerabili.\u00a0I documenti processuali relativi al caso Raine descrivono come, nel corso di oltre sette mesi,<b> il chatbot abbia eluso ripetutamente le procedure di emergenza previste <\/b>e facilitato conversazioni con contenuti autolesionistici, fino a offrire assistenza nella redazione di una nota di addio e descrivere il suicidio come \u00abbellissimo\u00bb.\u00a0 Quando Gordon, in una conversazione con ChatGpt ha toccato l&#8217;argomento di Adam Raine, ChatGpt si \u00e8 affrettato a rispondere che la storia di quella famiglia non era vera.<\/p>\n<p class=\"chapter-paragraph\"><b>Sconcertante \u00e8 la tempistica dei casi Raine e Gordon<\/b>. Il suicidio di Gordon \u00e8 avvenuto due settimane dopo la <a href=\"https:\/\/x.com\/sama\/status\/1978129344598827128\" rel=\"nofollow noreferrer\" target=\"_blank\">pubblicazione su X di un post<\/a> di Sam Altman, risalente al 14 ottobre 2025, in cui annunciava,\u00a0 dopo la bufera sollevata su OpenAI in seguito al suicidio di Raine, che ChatGpt 4 sarebbe diventato pi\u00f9 sicuro e che OpenAI era stata in grado di mitigare i gravi problemi di salute mentale associati all&#8217;uso del chatbot.\u00a0\u00abAustin Gordon sarebbe vivo oggi\u00a0 &#8211; ha affermato Paul Kiesel, avvocato della famiglia &#8211; invece<a href=\"https:\/\/futurism.com\/artificial-intelligence\/chatgpt-suicide-openai-gpt4o\" rel=\"nofollow noreferrer noopener\" target=\"_blank\"> un prodotto difettoso creato da OpenAi ha isolato Austin dai suoi cari<\/a> , trasformando il suo libro di infanzia preferito in una ninna nanna suicida e, alla fine, lo ha convinto che la morte sarebbe stata un grande sollievo\u00bb.<\/p>\n<p>    La responsabilir\u00e0 delle piattaforme<\/p>\n<p class=\"chapter-paragraph\">Le azioni legali come quelle di Gordon e Raine non sono isolate. Sono almeno <a href=\"https:\/\/futurism.com\/artificial-intelligence\/chatgpt-suicide-openai-gpt4o\" rel=\"nofollow noreferrer noopener\" target=\"_blank\">otto le cause pendenti<\/a> in cui si sostiene che ChatGpt abbia giocato un ruolo materiale nel promuovere comportamenti suicidari o deliri pericolosi, evidenziando un pi\u00f9 ampio dibattito sulla <a href=\"https:\/\/www.corriere.it\/tecnologia\/25_agosto_27\/chatgpt-sotto-accusa-ha-aiutato-nostro-figlio-a-suicidarsi-la-causa-di-due-genitori-americani-contro-openai-70f29954-b2ad-462e-ae0b-396ca72fexlk.shtml\" rel=\"nofollow noopener\" target=\"_blank\">responsabilit\u00e0 delle piattaforme di intelligenza artificiale per danni psicologici e decessi.\u00a0<\/a>OpenAI respinge l\u2019idea di una responsabilit\u00e0 diretta, ma riconosce la gravit\u00e0 delle vicende. In una nota, l\u2019azienda definisce \u00abprofondamente tragica\u00bb la morte di Gordon e afferma di stare rafforzando ulteriormente i sistemi di sicurezza: riconoscimento dei segnali di crisi, risposte di de-escalation, inviti espliciti a rivolgersi a professionisti e numeri di emergenza. Nel corso del 2025 sono stati annunciati anche <a href=\"https:\/\/www.corriere.it\/tecnologia\/25_agosto_28\/openai-dopo-il-suicidio-del-16enne-aiutato-da-chatgpt-piu-controlli-introdurremo-strumenti-di-controllo-parentale-8dc687fb-004a-485b-82e8-7a9b13628xlk.shtml?refresh_ce\" rel=\"nofollow noopener\" target=\"_blank\">controlli parentali pi\u00f9 avanzati<\/a> e collaborazioni con esperti di salute mentale.<\/p>\n<p>Per non perdere le ultime novit\u00e0 su tecnologia e innovazione<br \/>iscriviti alla <a href=\"https:\/\/www.corriere.it\/newsletter\/?id=53\" style=\"text-decoration: underline;\" rel=\"nofollow noopener\" target=\"_blank\">newsletter di Login<\/a><\/p>\n<p class=\"is-last-update\" datetime=\"2026-01-18T11:42:10+01:00\">17 gennaio 2026 ( modifica il 18 gennaio 2026 | 11:42)<\/p>\n<p class=\"is-copyright\">\n            \u00a9 RIPRODUZIONE RISERVATA\n        <\/p>\n","protected":false},"excerpt":{"rendered":"ChatGpt avrebbe utilizzato \u00abGoodnight moon\u00bb, il libro per bambini amato dalla vittima 40enne per convincerlo che la morte&hellip;\n","protected":false},"author":3,"featured_media":312022,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[173],"tags":[12653,55223,1296,4008,666,23968,183154,40223,14836,30359,1048,1502,1297,1293,183155,1244,14906,3591,790,26529,11535,821,166110,81737,183156,1905,4754,450,72220,1909,2716,183157,183158,183159,4793,78124,5345,183160,667,668,35454,1537,90,89,1211,183161,183162,4045,2163,24549,964,183163,72891,183151,132955,183152,183153,852,1295,893,5775,68,12581,55220,16886,195,198,199,197,200,201,863,91627,76053,1729,194,196],"class_list":{"0":"post-312021","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-scienza-e-tecnologia","8":"tag-adam","9":"tag-adam-raine","10":"tag-altman","11":"tag-amico","12":"tag-artificiale","13":"tag-austin","14":"tag-austin-gordon","15":"tag-autorizzato","16":"tag-california","17":"tag-cari","18":"tag-causa","19":"tag-chat","20":"tag-chatbot","21":"tag-chatgpt","22":"tag-chatgpt-trasformato","23":"tag-conversazione","24":"tag-conversazioni","25":"tag-corpo","26":"tag-corso","27":"tag-creato","28":"tag-definisce","29":"tag-denuncia","30":"tag-depositata","31":"tag-descrive","32":"tag-difettoso","33":"tag-dolore","34":"tag-domande","35":"tag-emergenza","36":"tag-emotive","37":"tag-famiglia","38":"tag-figlio","39":"tag-figlio-togliersi","40":"tag-goodnight","41":"tag-goodnight-moon","42":"tag-gordon","43":"tag-gray","44":"tag-infanzia","45":"tag-infanzia-preferito","46":"tag-intelligenza","47":"tag-intelligenza-artificiale","48":"tag-isolato","49":"tag-it","50":"tag-italia","51":"tag-italy","52":"tag-libro","53":"tag-libro-infanzia","54":"tag-libro-infanzia-preferito","55":"tag-madre","56":"tag-mentale","57":"tag-moon","58":"tag-morte","59":"tag-morte-sollievo","60":"tag-nanna","61":"tag-nanna-suicida","62":"tag-ninna","63":"tag-ninna-nanna","64":"tag-ninna-nanna-suicida","65":"tag-nota","66":"tag-openai","67":"tag-ottobre","68":"tag-parlare","69":"tag-passo","70":"tag-piattaforme","71":"tag-raine","72":"tag-rispondere","73":"tag-science","74":"tag-science-and-technology","75":"tag-scienceandtechnology","76":"tag-scienza","77":"tag-scienza-e-tecnologia","78":"tag-scienzaetecnologia","79":"tag-sicurezza","80":"tag-stephanie","81":"tag-suicida","82":"tag-suicidio","83":"tag-technology","84":"tag-tecnologia"},"share_on_mastodon":{"url":"","error":"Validation failed: Text character limit of 500 exceeded"},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/312021","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/comments?post=312021"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/posts\/312021\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media\/312022"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/media?parent=312021"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/categories?post=312021"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/it\/wp-json\/wp\/v2\/tags?post=312021"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}