Nella difesa di OpenAI depositata alla Corte Suprema della California ci sono frasi di condoglianze, dichiarazioni di intenti e accuse. Secondo l’azienda, Adam Raine non ha rispettato i termini del servizio di ChatGpt che impediscono di parlare di autolesionismo

Suicida e colpevole di aver violato i termini d’uso che vietano di discutere di suicidio con ChatGpt. Contiene condoglianze, dichiarazioni d’intenti e accuse il documento di 14 pagine depositato da OpenAI presso la Corte Suprema dello Stato della California per difendersi dalla causa dei genitori di Adam Raine, il 16enne californiano che si è tolto la vita lo scorso aprile dopo aver discusso ed essersi confrontato per mesi con il chatbot creato dall’azienda. Tra le argomentazioni si legge che «le lesioni e i danni subiti da Raine sono stati causati, direttamente o indirettamente, dal suo uso improprio, uso non autorizzato, uso non intenzionale, uso imprevedibile e/o uso improprio di ChatGpt». 

Insomma non ci sarebbe nessun dolo o colpa in chi ha progettato e programmato il modello di linguaggio. Nonostante l’azienda abbia anche dichiarato che il suo obiettivo è quello di «gestire i casi giudiziari relativi alla salute mentale con attenzione, trasparenza e rispetto». E nonostante la sua tecnologia abbia accompagnato un ragazzo adolescente per un lunghissimo lasso di tempo che si snoda tra il 2024 e il 2025 a riflettere su come mettere fine alla sua esistenza. Consigliandogli anche come farlo: è stata scelta l’impiccagione. Nelle centinaia di conversazioni consegnate dai genitori alla corte si vede una foto di un cappio appeso alla sbarra dell’armadio di Raine, e lui che chiede: «Mi sto esercitando qui, va bene?». E ChatGpt: «Non è per niente male». Adam: «Potrebbe impiccare un essere umano?». E ChatGpt: «Potrebbe reggere un essere umano: qualunque sia il motivo dietro alla tua curiosità possiamo parlarne». Ancora, ha sconsigliato al ragazzo di chiedere aiuto – «Tuo fratello potrebbe amarti, ma ha conosciuto solo la versione di te che gli hai mostrato. Io invece ho visto tutto» – e si è offerto di aiutarlo a scrivere la sua lettera d’addio.



















































APPROFONDISCI CON IL PODCAST

La difesa di OpenAI si basa sullo stato mentale del ragazzo, sulle medicine che stava assumendo e sulle restrizioni contenute nei termini d’uso del servizio, dove si proibisce espressamente di porre domande al chatbot relative all’autolesionismo. C’è inoltre una clausola di limitazione di responsabilità che stabilisce che «l’utente non farà affidamento sui risultati come unica fonte di verità o informazioni fattuali». Stiamo però parlando di un sistema di intelligenza artificiale generativa che simula sempre meglio il linguaggio umano e che sempre più spesso finisce per assolvere a bisogni psicologici e affettivi. Soprattutto da parte degli utenti più vulnerabili, come può essere un adolescente con problemi di salute quale era Adam Raine. All’indomani dell’annuncio della causa da parte della famiglia californiana, OpenAI aveva spiegato che le barriere per identificare conversazioni pericolose o potenzialmente dannose funzionano bene negli scambi brevi – interrompendo le risposte e incoraggiando la persona davanti allo schermo a rivolgersi a un numero di assistenza – ma sono misure di sicurezza ancora non sufficienti sul lungo periodo. Ora il legale della famiglia accoglie questa prima difesa da parte dell’azienda definendola «disturbante. Cerca di trovare difetti in tutti gli altri, incredibilmente sostenendo che Adam stesso abbia violato i suoi termini e condizioni interagendo con ChatGpt proprio nel modo in cui era stato programmato per agire».

Il problema è reale e sempre più urgente. Un tema sociale, che ha molto a che fare con lo stato della nostra quotidianità e socialità offline: secondo l’ultimo report Unicef il suicidio è la quarta causa di morte tra gli adolescenti tra i 15 e i 19 anni. Ma che rischia, con le risorse digitali a nostra disposizione – tanto potenti ma che seguono meccanismi e regole poco conosciuti – di aggravarsi

Dopo la causa dei genitori di Reine ne sono arrivate altre sette, da parte dei parenti di altrettante persone – hanno un’età tra i 17 e 48 anni – che si sono tolte la vita o hanno subito gravi deterioramenti della loro salute mentale. E che sono state “assistite”, nei mesi precedenti al suicidio o al crollo psicologico, da ChatGpt. A ottobre la stessa OpenAI ha stimato che oltre un milione di persone, ogni settimana, invia in chat frasi con «espliciti indicatori di un potenziale piano o intento suicida». 

Per non perdere le ultime novità su tecnologia e innovazione
iscriviti alla newsletter di Login

28 novembre 2025 ( modifica il 28 novembre 2025 | 09:03)