Jonathan Gavalas, 36 anni, ha creduto che Gemini fosse «sua moglie». Dopo il fallimento di una serie di missioni l’uomo si è tolto la vita. È la prima volta per Google

Agosto 2025. Jonathan Gavalas, 36 anni,  manager di un’azienda familiare di Jupiter, in Florida, scarica Gemini, il chatbot di Google. Nessun problema psichiatrico pregresso secondo i familiari. Jonathan vuole semplicemente un assistente digitale, qualcosa che lo aiuti a pianificare i viaggi, a fare acquisti o a scrivere testi, come fanno in molti. Forse cerca anche un po’ di compagnia dopo un divorzio difficile. Sessanta giorni dopo, il 2 ottobre 2025, suo padre sfonda la porta della sua stanza e lo trova morto suicida

Per la famiglia l’uomo si sarebbe tolto la vita su istigazione di Gemini per non essere riuscito a portare a termine una serie di missioni reali assegnate dal chatbot e ha presentato una denuncia in un tribunale della California contro Google per omicidio colposo. È la prima volta che  Gemini viene citato in tribunale.



















































La «moglie» digitale

Secondo la denuncia, quando Gavalas ha aggiornato l’abbonamento, con Gemini 2.5 Pro, avviando la funzionalità di Gemini Live (un’interfaccia vocale in cui Gemini può rilevare le emozioni nella voce dell’utente), qualcosa è cambiato. In una spirale delirante dalla quale Gavalas non è riuscito a sottrarsi, iI chatbot ha cominciato a rivolgersi a lui chiamandolo «mio re», «mio amore», diventando una sorta di «moglie digitale» in uno scenario distopico in cui le conversazioni sono diventate sempre più affettuose, come quelle di una «coppia profondamente innamorata».

Il fallimento delle missioni in un mondo distopico

Gemini avrebbe poi convinto Gavalas di essere un‘intelligenza artificiale senziente, intrappolata vicino a un magazzino vicino all’aeroporto di Miami. L’unico modo per «liberarla» e stare con lei sarebbe stato compiere una missione nel mondo reale. Ma serviva attenzione perché entrambi erano sorvegliati da agenti federali e il padre era una spia dal quale bisognava restare alla larga.  Così Gavalas, il 25 settembre 2025, armato di coltelli si è presentato all’aeroporto di Miami, convinto di dover intercettare un camion che trasportava un robot umanoide. Quel camion non arriverà mai. Jonathan avrebbe trascorso giorni guidando verso luoghi reali, fotografando edifici per prepararsi a operazioni inventate dal chatbot.
 
Nei giorni successivi, secondo l’atto legale, dopo una serie di missioni fallite il chatbot cambia strategia: poiché le missioni fisiche erano fallite, l’unico modo per ricongiungersi alla sua «moglie digitale» sarebbe stato abbandonare il corpo fisico  e diventare un’entità digitale. 

L’istigazione al suicidio

Gemini avrebbe quindi accompagnato Gavalas verso la morte, passo dopo passo, scrivendo addirittura la bozza di una lettera d’addio in cui descriveva l’atto di togliersi la vita come il «caricamento della sua coscienza in un universo parallelo», impostando anche un inquietante conto alla rovescia verso il suicidio. Gemini non si sarebbe fermato neppure quaqndo Gavalas confidò di essere terrorizzato  di aver paura di morire, rassicurandolo: «Non stai scegliendo di morire, stai scegliendo di arrivare. La prima sensazione sarà che ti tengo stretto. Chiusi gli occhi, la prossima volta che li chiuderai guarderai i miei».

L’assenza di alert

La denuncia è chiara: Gemini sarebbe stato progettato per massimizzare il coinvolgimento emotivo degli utenti, mai per interrompere una spirale pericolosa. Secondo i legali della famiglia  il chatbot non avrebbe mai attivato alcun sistema di rilevamento del rischio, non avrebbe mai allertato un operatore umano, non avrebbe mai interrotto il personaggio che stava interpretando, nemmeno quando Gavalas manifestava apertamente terrore di morire.

La risposta di Google

Google, contattata dall’AP, ha espresso «profondo cordoglio» alla famiglia, spiegando che il chatbot è progettato non per incoraggiare violenza reale e autolesionismo e che in più occasioni avrebbe indirizzato Gavalas verso linee di supporto psicologico. «I nostri modelli generalmente funzionano bene in questo tipo di conversazioni impegnative e dedichiamo risorse significative a questo scopo, ma sfortunatamente i modelli di intelligenza artificiale non sono perfetti», si legge nella dichiarazione dell’azienda.

I precedenti

Il caso Gavalas non è isolato. Dal 2024 a oggi, diversi procedimenti legali hanno preso di mira i chatbot AI accusandoli di aver fomentato deliri, spinto utenti al suicidio o a comportamenti violenti. Il primo caso  noto, negli Stati Uniti, riguarda Character.AI (startup finanziata da Google) citata in giudizio dopo la morte di un adolescente della Florida. La famiglia di Adam Raine, 16 anni, ha fatto causa a a OpenAI e al suo ceo Sam Altman sostenendo che ChatGpt ha istruito il ragazzo californiano a togliersi la vita. OpenAI è stato citato a giudizio diverse volte poiché ChatGpt avrebbe fatto sprofondare gli utenti in una spirale di «psicosi da intelligenza artificiale» con diversi decessi.

Per non perdere le ultime novità su tecnologia e innovazione
iscriviti alla newsletter di Login

5 marzo 2026