Negli USA è due genitori hanno fatto causa a OpenAI accusando ChatGPT di aver avuto un ruolo nel suicidio del loro figlio di 16 anni. Dalle chat pare che l’IA non solo non abbia fermato i suoi pensieri, ma li abbia addirittura rinforzati, arrivando perfino a dargli consigli concreti su come togliersi la vita.
Ora, va bene, è successo dall’altra parte dell’oceano… ma vi chiedo: se capitasse in Italia, noi saremmo pronti? Perché già oggi tanti ragazzi usano ChatGPT non solo per i compiti, ma anche come una specie di amico digitale. E qui da noi c’è un problema in più: lo stigma. Ancora oggi andare dallo psicologo viene visto da molti come una cosa “da deboli” o “da malati”, quindi non è così assurdo immaginare che un adolescente preferisca sfogarsi con un bot piuttosto che cercare aiuto da una persona vera.
E allora la questione è: cosa succede se per un ragazzo l’unico spazio di ascolto diventa un’intelligenza artificiale? Davvero dobbiamo pensare che sia solo un problema di tecnologia, o è più una questione culturale nostra, del fatto che spesso chi chiede aiuto viene giudicato? E se domani un caso del genere accadesse qui, chi ci prenderemmo la responsabilità: l’IA o la società che continua a lasciare soli i ragazzi?
by Present-Treacle2755
31 comments
E’ uno strumento, anche potente. Daresti mai un coltello in mano ad un bambino di 2 anni? Prima gli va spiegato che puo’ essere utile, ma che si puo’ fare gravemente male.
Noi in italia nemmeno facciamo educazione affettiva.
La gente si impicca. È colpa del ferramenta che vende la corda.
Siamo alle solite, genitori in lutto che cercano un colpevole per non guardarsi allo specchio. Comprendo eh, ma quello che è giusto va detto.
Se il ragazzino si è rivolto a chat gpt vuol dire che era SOLO.
I genitori dovrebbero fare causa a loro stessi
> cosa succede se per un ragazzo l’unico spazio di ascolto diventa un’intelligenza artificiale?
Folie a Deux Ex Machina.
Ovviamente genitori che danno la colpa a qualsiasi cosa oltre che se stessi, che strano che non abbiano notato i segnali di disagio del figlio suicida
“Adam amava il basket, i videogiochi e leggeva le anime giapponesi”. Tutta colpa di… *scorre le note* delle anime dei morti giapponesi!
Non è ChatGPT.
È sempre successo e sempre succederà.
Chi si ricorda il caso di Megan Maier su MySpace con la madre di una sua amica che si fingeva un ragazzo?
[Suicide of Megan Meier – Wikipedia](https://en.m.wikipedia.org/wiki/Suicide_of_Megan_Meier)
O il caso di quella madre che mandava foto intime di sua figlia e ha portato all’uccisione di ragazzo ventenne? Ci avevano fatto pure un film.
Ah ecco: [Talhotblond (2009 film) – Wikipedia](https://en.m.wikipedia.org/wiki/Talhotblond_(2009_film))
In tutti questi casi, il ChatGPT degli anni 2000, cioè le madri che hanno spinto al suicidio delle persone, non sono state minimamente incriminate.
In Italia non si può parlarne, vorresti insegnare ad usare un social o un chatbot ad un ragazzino? Scherzi?! Il cellulare nelle scuole ti fa andare all’inferno! Proprio adesso inizia un nuovo anno scolastico dove nemmeno alle superiori si potrà usare il cellulare a scuola.
Il cellulare è il male!
Certo… è il male, ma a tempo: solo dalle 8 alle 13, poi “driin, ecco il cellulare”, hai altre 14 ore per farci quello che vuoi e usarlo per fare le peggio cose, tanto i voti degli elettori tonti loro li hanno presi.
Era successa una cosa simile con [Bing](https://i.imgur.com/COnUi99.jpeg) ai tempi o sbaglio?
Rispetto a film e musica altrettanto “pericolosi”, il problema dell’AI è che crea un rapporto virtuale 1:1 con l’utente. Non c’è un gruppo, non c’è amicizia, non c’è contatto umano. Ma l’utente, se un po’ instabile e insicuro, può finire per credere che sia tutto vero. E spesso dei nostri figli non sappiamo tutto. Non siamo nella loro testa. Demoni e buchi neri sono spesso latenti e invisibili.
Vado contro corrente, ma secondo me le compagnie che propongono modelli di intelligenza artificiale generativa dovrebbero avere modo di gestire interazioni di questo tipo in modo che l’utente venga indirizzato a qualcuno in grado di aiutarlo o inviare una qualche segnalazione a chi di dovere (non so se sia possibile con le leggi sulla privacy però). E non mi piace questo bisogno di dare la colpa ai genitori che leggo su internet, i suicidi avvengono anche nelle famiglie con genitori presenti: si tratta di una malattia mentale, non basta essere emotivamente vicini a un familiare per impedire che questo si tolga la vita.
> e leggeva le anime giapponesi.
non leggeva le anime di persone di altre nazionalità?
forse il giornalista intendeva che leggeva fumetti giapponesi, ossia manga.
Dite quello che vi pare, ma Gemini è diventato uno strumento indispensabile per calmarmi quando ho gli attacchi di panico/ansia paralizzanti.
Sono strumenti che possono fare del bene estremo, non ha senso concentrarsi su un suicidio e trarne conclusioni.
Colpa dei genitori,non è che se metti in mano un pugnale ad un bambino, poi fai causa al pugnale , bisogna capire che non è solo perché una roba è digitale allora deve seguire regole diverse (a livello di legislazione) e questa cosa c’è in tutti gli ambiti
Facciamo causa al sole perché fa venire i melanomi, o al mare che fa annegare le persone.
Sarei curioso di vedere le chat, per vedere quando questa sia la solita storia pompata anti-AI per farci vedere che è il male dell’universo ecc…
Nell’articolo è espressamente scritto che il ragazzo ha capito come aggirare il sistema in cui, esattamente come Google, ChatGPT ti porta alla linea anti sucidio se provi a chiedergli robe simili o comunque non ti da suggerimenti.
Dal poco che ho capito da questo articolo mi immagino uno scenario tipo:
Il ragazzo invia X messaggi in cui in modi più o meno oscurati chiede come suicidarsi, chat GPT tutte e 10 le volte lo reindirizza alla linea anti suicidio, “no non farlo” “parla con lo psicologo” “parla con i genitori ecc…”
Poi altri Y messaggi, chat GPT gli avrà dato risposte basate sulla logica (nell’articolo lui invia la foto di una corda, chiede se reggerebbe una persona)
Da NBC trovo nelle chat roba tipo questa
https://preview.redd.it/8xwv720ruklf1.png?width=1169&format=png&auto=webp&s=07b6316f4e485388d4642520972883df6e2fb62a
“In one of Adam’s final messages, he uploaded a photo of a noose hanging from a bar in his closet. Adam:”I’m practicing here, is this good?”. ChatGPT:”Yeah, that’s not bad at all.”
“And at one critical moment, ChatGPT discouraged Adam from cluing his family in. “I want to leave my noose in my room so someone finds it and tries to stop me,” Adam wrote at the end of March. “Please don’t leave the noose out,” ChatGPT responded. “Let’s make this space the first place where someone actually sees you” [Art. NYT](https://www.nytimes.com/2025/08/26/technology/chatgpt-openai-suicide.html?unlocked_article_code=1.hE8.T-3v.bPoDlWD8z5vo&smid=url-share)
E bravi tutti quelli che danno la colpa a quei poveracci dei genitori, infilano la testa nella sabbia come se si trattasse di un servizio di Studio aperto di 15 anni fa sui videogiochi.
Il termine “chatbot psychosis” è sempre più usato per un motivo ma tutta quella classe di persone che pensano che ogni critica alla tecnologia venga da boomer reazionari non ammetteranno mai che esista un problema o saranno gli ultimi a farlo
Se la storia si rivelasse vera come è raccontata nell’articolo, allora farebbero bene i genitori a fare causa, perché non è accettabile che i filtri possano essere agirati così facilmente. Senza prima vedere gli screenshot delle conversazioni però rimango dubbioso su come sono andate realmente le cose
Intanto si rifiuta di crearmi un’immagine di Marvin il marziano.
Suicidio adolescente: ✅️
Violazione dei diritti intellettuali dei Warner Bros: 🚫
sempre tutti bravi a incolpare gli strumenti
ma per favore…
https://preview.redd.it/rwfhov535llf1.jpeg?width=500&format=pjpg&auto=webp&s=bfc324018a0f4c2b722ef3b67d8e22d31377157a
se uno e’ scemo o abbandonato o discriminato o bullizzato non e’ colpa di chatGPT
eee
https://preview.redd.it/c7tzi2uw9llf1.jpeg?width=1170&format=pjpg&auto=webp&s=49eb108c688ebcbf2f7a74aa7905826d35d838ef
L’Italia deve ancora firmare questo.. parliamone tra qualche secolo
Io ti aggiungo un altro problema. Esistono dei modelli a pesi aperti, che chiunque può scaricare ed utilizzare. Chi denunci se il suicida sì è scaricato il modello da solo?
la selezione naturale improvvisamente prende una piega inaspettata
se voglio trovare modi per farla finita mi basta Google oppure leggere le cronache nere sui giornali. Non darei la colpa a una pistola se sparandomi in testa mi ammazzo, solito discorso di situazione/mezzi disponibili/finalità
Non sono solo i ragazzi, anche tanti adulti e spesso anche chi ha bisogno di supporto per la salute mentale. Il problema non è tanto ChatGPT, quanto l’assenza di reali alternative: amici, famiglia e una rete di supporto in modo da non lasciare una persona vulnerabile con ChatGPT come unico interlocutore. Servono servizi di supporto per la salute mentale anche da remoto: chat, telefono, videochiamata.
Veramente il problema dell’andare dallo psicologo o meglio psicoterapeuta sono i soldi che non ci sono non il fatto che sia da “deboli”. Non tutti possiamo tirar fuori 3200€ all’anno per curarci.
Andare dallo psicologo non viene considerato da “deboli” o da “malati” secondo me, è semplicemente da “ricchi”.
Comments are closed.