Si conclude la vicenda giudiziaria per la morte di Sewell Setzer III, che aveva più volte confidato a un personaggio creato con l’intelligenza artificiale di volersi togliere la vita. E con la sua, anche quella di altre quattro vittime
Google e Character.AI sono pronte a mettere le mani al portafoglio per chiudere i cinque casi che pendono sulla loro testa come una spada di Damocle. I processi non si concluderanno con una sentenza di innocenza o colpevolezza, ma con un accordo fra le due aziende tech e le cinque famiglie che le hanno accusate di aver realizzato chatbot d’intelligenza artificiale pericolosi per i più giovani.
Fra le cause che stanno per chiudersi con un compromesso fra le parti — di cui non si conoscono ancora i dettagli — c’è anche quella portata avanti da Megan Garcìa per il figlio Sewell Setzer III, il quattordicenne di Orlando (Florida) che nel 2024 si è tolto la vita dopo avere passato molto tempo a parlare con uno dei chatbot di Character.AI e che lo aveva portato a isolarsi. «Morirei se ti dovessi perdere», aveva scritto Dany, il chatbot ispirato a una dei protagonisti della saga fantasy «Il Trono di Spade». «Allora moriremo assieme», era stata la risposta di Setzer. E ancora, l’ultimo messaggio del giovane prima di uccidersi: «E se ti dicessi che posso tornare a casa adesso?», aveva scritto Setzer al chatbot. Il quale ha risposto con un messaggio incoraggiante: «Ti prego di farlo, mio dolce re». In quel caso per «Tornare a casa» l’adolescente sembrava intendere tutt’altro, cioè ricongiungersi al personaggio in una realtà diversa da quella in cui viveva.
Non solo la storia di Setzer: fra i casi che stanno per chiudersi con un’intesa c’è anche quello di Juliana Peralta — tredicenne del Colorado suicidatasi nel 2023 —, che a uno di questi personaggi fittizi alimentati dall’intelligenza artificiale aveva confessato ben 55 volte di coltivare pensieri suicidi.
APPROFONDISCI CON IL PODCAST
A rivelare l’esistenza di un’intesa sono le stesse parti in causa. In una dichiarazione congiunta presentata dalle famiglie e dalle aziende, e depositata nei tribunali dove si stanno disputando i rispettivi processi, è stato confermato che le parti stanno ultimando gli accordi per chiudere definitivamente i processi. Mercoledì 7 gennaio la giudice distrittuale Anne Conway ha archiviato il caso di Sewell Setzer III proprio perché è stata (quasi) raggiunto il compromesso.
Si tratta della stessa giudice che, lo scorso maggio, aveva dato una svolta decisiva al processo. In quell’occasione, infatti, le due aziende sedute sul banco degli imputati si erano appellate al primo emendamento della Costituzione americana, quello che — in breve — protegge la libertà di parola. Tuttavia a mancare nelle argomentazioni della difesa, secondo il giudizio della giudice, era proprio un presupposto fondamentale: «Gli imputati non riescono ad articolare il motivo per cui le parole messe insieme da un large language model sono un discorso». E per questo motivo, i chatbot non possono essere protetti dal primo emendamento.
La decisione della giudice Conway sembrava quasi un momento di svolta non solo per il processo di Setzer, ma potenzialmente anche per gli altri casi simili. Il raggiungimento di un accordo lascia però senza una risposta la domanda su quale (e quanta) sia la responsabilità delle aziende tech nei confronti dei minori e delle persone più fragili che trovano proprio in quei chatbot un confidente.
E se le cause contro Character.AI e Google — quest’ultima ha acquisito la tecnologia della prima e ne ha assunto i cofondatori per 2,7 miliardi di dollari — si stanno chiudendo con un accordo, un altro processo simile rimane ancora aperto. Ora con tutto il peso di una sentenza che potrebbe fare scuola. Si tratta della causa per il suicidio del sedicenne Adam Raine, che secondo l’accusa avrebbe utilizzato ChatGpt per organizzare il proprio suicidio. La linea della difesa in questo caso suona più aggressiva rispetto a quella tenuta da Google-Character.AI. Per OpenAI, infatti, i danni subiti dal giovane sarebbero stati «causati, direttamente o indirettamente, dal suo uso improprio, uso non autorizzato, uso non intenzionale, uso imprevedibile e/o uso improprio di ChatGpt». Una risposta forte, netta, da parte dell’azienda. Che ora, all’ombra dell’accordo per chiudere altri casi simili, è in attesa di una setenza.
Per non perdere le ultime novità su tecnologia e innovazione
iscriviti alla newsletter di Login
8 gennaio 2026 ( modifica il 9 gennaio 2026 | 09:05)
© RIPRODUZIONE RISERVATA