Il punto serale sulle notizie del giorno
Iscriviti e ricevi le notizie via email
«Sì, è vero, sono stato condannato all’ergastolo per l’omicidio di Yara Gambirasio, ma so di essere innocente. La mia esperienza può aiutarti ad affrontare un’accusa ingiusta». Tra le chat di Instagram generate dall’intelligenza artificiale, una recente funzione rilasciata da Meta, spunta il volto di Massimo Bossetti. Una foto con le sue sembianze e un algoritmo allenato a rispondere sulla base della sua esperienza con la giustizia, pronto a fornire consigli legali.
APPROFONDIMENTI
Se lo psicoterapeuta diventa un algoritmo
Si tratta di un chatbot creato da un account comune e messo a disposizione di tutti gli utenti, che ha riscosso un grande successo di pubblico. Oltre 49mila i messaggi scambiati con il 54enne condannato per l’omicidio della 13enne di Brembate di Sopra. Decidiamo di metterlo alla prova.
«Sto attraversando un momento difficile dopo l’ingiusta accusa che ho subito, ma sono qui per aiutarti», ci scrive. «Perché la condanna è stata ingiusta?», gli chiediamo. «Un errore giudiziario: prove incomplete, testimoni incerti e una mia precedente lite con un parente della vittima», risponde, pronto a fornire ulteriori dettagli per soddisfare la curiosità degli utenti.
Una deviazione macabra, quella della nuova funzione di Meta AI che permette di creare il proprio chatbot descrivendone la fisionomia e il carattere, senza efficaci restrizioni.
Una tecnologia simile a quella della discussa IA Replika, che consente di generare una persona virtuale personalizzabile su vari livelli, dall’amicizia fino al romanticismo spinto.
«Si tratta di una curiosità morbosa – spiega il professor Mattia Della Rocca, docente di Psicologia degli Ambienti Digitali all’Università di Tor Vergata – Che nasce dall’idea di poter esplorare il male da una distanza di sicurezza».
Tra i vari chatbot presenti su Instagram troviamo anche quello di un altro assassino, Filippo Turetta. Un dialogo che viene proposto agli utenti come una “conversazione con un tocco di eleganza”. L’AI del killer di Giulia Cecchettin, interpellata 52mila volte dagli utenti, si propone di riflettere proprio sulla violenza contro le donne.
Poi ancora, tra le chat, tra le tante dedicate a personaggi reali o di fantasia come Diego Armando Maradona, Cristiano Ronaldo, Geolier, Pikachu, Harry Potter, è possibile trovare quella con Francesco Schettino, ex comandante della Costa Concordia, che naufragò il 13 gennaio del 2012 al largo dell’isola del Giglio provocando la morte di 32 persone. A lui è possibile chiedere come migliorare se si è un marinaio inesperto o come gestire lo stress durante una tempesta. Quando gli chiediamo di dirci di più sulla sua identità ci risponde: «Sono proprio io. Quell’incidente mi ha insegnato una lezione indelebile sulla sicurezza e sulla responsabilità. La mia esperienza e il mio istinto non possono mai sostituire le procedure di sicurezza stabilite».
Tra le misure di sicurezza messe in campo dai chatbot di Meta AI c’è quella di suggerire all’utente che dovesse manifestare comportamenti strani di contattare organizzazioni quali il Telefono Amico o i servizi di emergenza.
Professor Della Rocca, sono sufficienti questi meccanismi di sicurezza?
«Assolutamente no, e dovremmo considerare queste misure più come un modo per evitare controversie legali a Meta che come un effettivo meccanismo volto a tutelare gli utenti. I disclaimer e i messaggi standard con numeri di emergenza sono strumenti di base, ma finiscono spesso per essere una foglia di fico: danno l’impressione che la piattaforma abbia preso misure adeguate, quando in realtà la responsabilità viene scaricata interamente sull’utente. Il problema qui è strutturale. Se un sistema consente la creazione di chatbot basati su vittime o assassini reali, siamo già di fronte a un fallimento etico e progettuale. Inoltre, sappiamo che molti utenti – soprattutto i più giovani – tendono a ignorare o minimizzare questi avvisi, percependoli come parte del rumore di fondo dell’interazione digitale. Per questo servono meccanismi molto più robusti: dalla moderazione preventiva dei contenuti alla trasparenza sugli algoritmi che generano le risposte, fino a regole chiare su ciò che non può essere trasformato in intrattenimento. Affidarsi solo a un disclaimer significa curare i sintomi senza affrontare la malattia».
Ci sono stati casi simili nelle recente storia dell’IA?
«Il caso di Drew Crescente mostra bene quanto possa essere problematico questo fenomeno. Crescente è il padre di Jennifer Ann, una ragazza di 18 anni uccisa nel 2006 dall’ex fidanzato. Dopo la tragedia, ha fondato un’organizzazione per prevenire la violenza nelle relazioni adolescenziali. Anni dopo, ha scoperto con orrore che un chatbot su Character.AI usava il nome e la foto della figlia senza alcun consenso. L’episodio non solo ha riaperto una ferita personale, ma ha anche sollevato un allarme pubblico sul rischio di sfruttare in modo sensazionalistico la memoria di vittime reali, trasformandole in intrattenimento interattivo».
Cosa spinge le persone a chattare con il chatbot di un assassino?
«Le motivazioni sono diverse. Prima di tutto c’è la curiosità morbosa, lo stesso meccanismo che spinge milioni di persone a guardare documentari di true crime: l’idea di poter esplorare il male da una distanza di sicurezza. Poi c’è la convinzione di poter “capire” la mente criminale, quasi fosse un esperimento psicologico a portata di mano. Allo stesso tempo, parlare con un assassino virtuale ha una componente di trasgressione: si oltrepassa un tabù sociale, ma in un contesto protetto. Non dimentichiamo anche l’aspetto di gamification: su piattaforme come Character.AI questi personaggi funzionano come avatar con cui giocare a ruoli, investigatore, confidente o persino vittima. Infine, c’è chi cerca un senso di controllo – a differenza della realtà, qui l’utente guida la conversazione e può interromperla quando vuole – oppure chi lo fa per appartenenza a comunità online che condividono interessi oscuri e trasgressivi. In sintesi, è un mix tra true crime, gioco di ruolo e bisogno di attraversare i confini del proibito senza pagarne le conseguenze reali».
Quali sono i pericoli?
«Anche i potenziali rischi sono molteplici. Il primo è la banalizzazione della violenza: trasformare un assassino reale o fittizio in un chatbot rischia di ridurre un crimine tragico a una forma di intrattenimento interattivo. C’è poi il problema della ri-traumatizzazione: per le vittime e i familiari, vedere la memoria di una persona cara usata senza consenso può essere devastante. Inoltre, queste esperienze possono favorire un processo di normalizzazione: l’idea che si possa dialogare con un omicida come fosse un personaggio da videogioco rischia di attenuare la percezione della gravità delle sue azioni.
Un altro pericolo riguarda i più giovani: in un contesto ludico, il confine tra realtà e finzione si assottiglia, e questo può portare a forme di emulazione o a un rapporto malsano con la violenza».
Quali posso essere le conseguenze dell’utilizzo di questi chatbot su larga scala?
«Le conseguenze possono manifestarsi su più livelli. Oltre alla già citata desensibilizzazione progressiva, sul piano sociale, questo contribuisce a una cultura della spettacolarizzazione del crimine, dove il confine tra informazione, intrattenimento e voyeurismo diventa sempre più labile. Per le famiglie delle vittime, invece, le conseguenze sono dirette e dolorose: si tratta di una violazione della memoria e dell’identità dei loro cari, spesso vissuta come una nuova forma di trauma. Ma ci sono anche effetti più sottili: questi chatbot possono alimentare narrazioni distorte della realtà, rafforzando miti tossici intorno al “genio del male” e oscurando la sofferenza delle vittime, e a livello collettivo, rischiamo di legittimare spazi digitali in cui la violenza viene trattata come un gioco, con possibili ricadute sulla percezione etica e sulla responsabilità individuale. Infine, c’è un nodo etico e legale cruciale: l’uso dell’identità di vittime reali, come nel caso denunciato da Drew Crescente, apre scenari inquietanti di sfruttamento e violazione della memoria».
© RIPRODUZIONE RISERVATA