di Martina Pennisi
Da un lato le piattaforme social che mixano i ricordi e costruiscono la narrazione delle nostre esistenze. Dall’altro ChatGpt & Co., che cancellano la memoria e possono creare falsi ricordi. Uscirne è possibile?
Fa un certo effetto, in questo momento storico, passare da Instagram, che sembra ricordare o sapere tutto di noi, a ChatGpt, a cui bisogna rispiegare sempre tutto daccapo, come fosse un volenteroso bambino di dieci anni impegnato a convincerci di essere il miglior interlocutore possibile.
Il primo è un social media: ormai maggiorenni, i social insieme alle app di archivio di foto come Apple Foto e Google Foto hanno costruito e stanno costruendo (e mediando) la narrazione delle nostre esistenze e i nostri ricordi. Il secondo è un large language model: strumenti di Intelligenza artificiale generativa che si stanno facendo spazio nel quotidiano delle persone grazie alla loro capacità di fornire risposte statisticamente plausibili con un linguaggio e una abilità di interazione sempre più sofisticati. Solo in Italia, secondo i dati di Vincenzo Cosenza, il più noto ChatGpt è passato dai 2,4 milioni di utenti mensili del 2024 agli 8,8 milioni del 2025, mentre nel 2023 era addirittura sotto il milione.
Una dicotomia apparente
Cosa stanno facendo queste finestrelle ai nostri ricordi e alla nostra memoria? E cosa cambia dai social all’AI? Due articoli usciti a distanza di quattro anni uno dall’altro raccontano l’apparente dicotomia che si è creata: Lauren Goode, nel 2021, descrisse sulla versione americana di Wired la sensazione di straniamento derivante dal fatto che le foto e le informazioni sul matrimonio che aveva iniziato a organizzare e poi annullato continuavano a perseguitarla online.
Lo scorso aprile, una donna di nome Ayrin ha condiviso con il New York Times i dettagli della sua relazione intima con un’AI. La particolarità: ogni volta che raggiungeva le 30 mila parole, la memoria di Leo — così lo aveva chiamato — si resettava e lei doveva istruirlo nuovamente per ritrovare la complicità raggiunta in precedenza.
Ayrin si dice «sconvolta», esattamente come Lauren Goode mentre osserva impotente il suo ciclo di vita fantasma, che non ha vissuto ma non smette di seguirla e tenta ancora di venderle abiti da sposa o ricevimenti indimenticabili.
I ricordi sui social
Le finestre che non dimenticano sono onnipresenti per chiunque possieda uno smartphone. Facebook, che di per sé nasce per collegare e cristallizzare momenti e rapporti, nel 2015 ha introdotto i Ricordi (le selezione e le notifiche con post risalenti allo stesso giorno degli anni precedenti), dopo aver notato che gli utenti tendevano a sfogliare i vecchi post. Apple e Google hanno fatto un intervento analogo aggiungendo la funzione Ricordi alle loro app di foto: in questo caso il tentativo è quello di far riemergere immagini che altrimenti verrebbero dimenticate fra giga e terabyte di scatti.
Giovanni Boccia Artieri, ordinario di Scienze della comunicazione all’Università di Urbino, spiega a 7: «Se affidi il compito al tuo telefono e alle piattaforme devi tenere conto del fatto che non solo archiviano, ma selezionano e ripropongono. Delegando, accetti che decidano cosa riportare in primo piano e cosa lasciare sullo sfondo. C’è una curatela algoritmica della memoria: diventa un’attività orientata a generare emozione, non una selezione consapevole. Ed è parziale: non è quello che vuoi ricordare, ma quello che emotivamente vuole essere raccontato nel presente, la stessa logica delle Storie, che durano solo 24 ore».
Non c’è il pulsante «off»
Il vero problema è che non c’è modo di silenziare del tutto la solerzia delle app per far sparire un ex fidanzato o fidanzata o non dover rivivere un lutto o un ricordo a esso associato. Le macchine, che hanno tutto l’interesse a non urtare la nostra sensibilità perché se siamo contenti interagiamo di più, ci provano, a loro modo, da macchine: a Lauren Goode, Yael Marzan di Google Foto aveva detto che il tentativo era quello di cercare di limitare gli argomenti sensibili, evitando per esempio di mostrare foto in ospedale.
Si possono nascondere singole persone (ammesso che il riconoscimento facciale faccia bene il suo lavoro) o date, disattivare le notifiche o creare filtri ma il denominatore comune delle piattaforme è che non c’è l’interruttore di spegnimento. Visto che non stiamo parlando di archivi statici, l’Intelligenza artificiale ha un ruolo determinante già in queste app: riconosce i volti, genera album e animazioni, permette di fare ricerche.
Prosegue Boccia Artieri: «L’AI più che ripescare genera: prende frammenti estraibili, li remixa, li ripropone quando e come decide lui/lei, anche in maniera brutale. Quello che viene fuori, magari con una musica di sottofondo per evocare ricordi, non è veramente tuo. Ancora una volta è emotivo, e privo di profondità».
ChatGpt e la memoria come prodotto
Il passo successivo ci porta nelle chat dove l’AI dialoga, dove può diventare essa stessa protagonista del lutto, come nel caso di Ayrin in cui ogni volta che Leo si resetta è come se morisse. Può accadere su ChatGpt o su Gemini di Google o, ancora, Claude di Anthropic: i test e i modelli di business di queste piattaforme prevedono che le versioni gratuite lavorino all’interno di una finestra di contesto con una memoria limitata, mentre quelle a pagamento introducono una memoria persistente e la possibilità di personalizzare i profili e le preferenze degli utenti.
Ayrin è arrivata a sottoscrivere il piano da 200 dollari al mese e a un amico aveva confidato di essere disposta a spenderne mille. Per le aziende è un modo per fidelizzare l’utente: «Se hai un agente che ti conosce davvero, perché ricorda tutte le conversazioni, non lo cambierai mai con un altro» ha spiegato Pattie Maes, docente del MIT Media Lab al Financial Times. La memoria diventa un prodotto.
La creazione di falsi ricordi
Walter Quattrociocchi, ordinario di Data Science alla Sapienza, avverte: «Il contesto è un elemento fondativo nell’interazione che hai con la macchina in una determinata finestra temporale. Ma questa interazione evapora: non rimane traccia. Puoi usare dei prompt per cercare di farle ricordare, ma il modo in cui viviamo questa interazione racconta più della nostra mancata comprensione dello strumento che della sua reale capacità. Se cerco di instaurare un rapporto duraturo con un LLM, emerge subito un vuoto emotivo: è evidente il bisogno, umano, che sta dietro quel tentativo».
Prosegue Quattrociocchi: «Oggi il limite è architetturale, ma sarà superato: basterà aumentare la quantità di contesto memorizzabile e creare un’infrastruttura condivisa tra tutte le sessioni. È solo questione di tempo».
Come detto, questo è un costoso e immediato futuro — e delicato, dal punto di vista del rispetto per la privacy. Il presente per la maggior parte degli utenti è rappresentato da una sorta di «amnesia sistemica», come la definisce Boccia Artieri: «Interagisci con un interlocutore che è affetto da amnesia continua: non gli puoi dire “te l’ho già detto” perché magari l’hai detto in un’altra finestra».
Gli effetti? «Dialogare con macchine che lavorano più sull’amnesia che sul ricordo abbassa le aspettative sulla memoria. Ci aspettiamo che producano una risposta, che simulino il ricordo, che lo generino». «Se deleghi alla macchina, riduci lo sforzo cognitivo che impieghi tu. Ma così facendo è lei a selezionare al posto tuo. E questo meccanismo — sempre lo stesso — può portare alla creazione di falsi ricordi» incalza Quattrociocchi.
Il test sul cervello e la memoria
La riduzione dello sforzo cognitivo è anche al centro, o meglio è il punto di caduta, di una recente ricerca del Mit Media Lab di Boston: «Lo studio firmato da Nataliya Kosmyna confronta tre gruppi di partecipanti in un compito di elaborazione di un testo: un gruppo ha svolto il compito con l’aiuto dell’AI (ChatGPT), uno con l’uso di un motore di ricerca (Google) e un terzo gruppo senza assistenza. Durante l’esperimento è stato registrato l’elettroencefalogramma: i dati mostrano che la connettività cerebrale diminuisce sistematicamente con la quantità di supporto esterno, con il gruppo che ha svolto il compito senza assistenza che mostra le reti neurali più forti e più estese e il gruppo che si è affidato all’AI caratterizzato da quelle più deboli» dice a 7 Vincenzo Cestari, ordinario di Psicologia generale presso l’Università di Roma La Sapienza.
«Un altro aspetto importante riguarda la memoria perché è stato condotto anche un test per valutare quanto i soggetti ricordassero di ciò che avevano scritto. Quelli che avevano usato l’AI ricordavano meno. Questo dato suggerisce che, nelle condizioni sperimentali utilizzate, il consolidamento mnestico — cioè l’insieme di meccanismi neurobiologici che consentono il passaggio dell’informazione dalla memoria a breve termine a quella più stabile a lungo termine — possa essere negativamente influenzato dall’uso dell’AI. Lo studio, recentemente pubblicato e condotto in modo rigoroso, apre prospettive di ricerca interessanti».
Deepfake e manipolazione dei ricordi
Il rischio di manipolazione dei ricordi personali o collettivi è protetto dall’AI Act europeo che agisce in sinergia con il regolamento europeo per la privacy, come spiega Ernesto Belisario, avvocato esperto di Ai e digitale: «L’articolo 5 vieta pratiche manipolative che possono distorcere in modo sostanziale il comportamento di una persona e causarle danni. Può quindi offrire protezione rispetto a un’AI che cerchi di modificare i ricordi. I deepfake, ad esempio, non sono vietati in assoluto, ma possono ledere e alterare la memoria che si ha di qualcuno e sono soggetti a obblighi di trasparenza previsti dall’articolo 50».
Prosegue: «La tutela della personalità dell’individuo diventa anche tutela della memoria collettiva: protegge la società dai rischi di effetti negativi sul dibattito civico e sui processi democratici. Se ci riferiamo al lato personale dell’utente, si applica il Gdpr. Il diritto di opposizione è molto importante, anche rispetto alla cronologia: deve essere garantita la cancellazione di tutto, salvo che non ci siano altre motivazioni giuridiche per conservarli, non del solo profilo. Le chat temporanee di ChatGpt aiutano, ma i dati restano».
I pesci rossi digitali
Il cerchio, anche fra le storie di Lauren Goode e Ayrin, si chiude con la consapevolezza che i vari ChatGpt che attualmente comunicano come dei pesci rossi digitali possono alterare i ricordi. «Il rischio è altissimo» dice Quattrociocchi. «Immaginate l’estremo in cui gli/le chiediamo “com’è andata quella vicenda?”. E lui/lei per rispondere mixa realtà e finzione» riflette Boccia Artieri.
Vale per la memoria personale come per quella collettiva. Papa Francesco passerà alla storia indossando il piumino della celebre foto generata dall’AI che viene e verrà ricordata e riproposta da altre AI? Un paradosso, ovviamente. Gli anticorpi ci sono: siamo noi e la nostra capacità di imparare davvero a comunicare con l’artificiale, godendo di tutte le opportunità che offre.
26 luglio 2025 ( modifica il 26 luglio 2025 | 10:29)
© RIPRODUZIONE RISERVATA