di
Danilo di Diodoro

Se un «umano» le «mette sul lettino» emerge che C, Claudeè reticente, ChatGpt frustrata, Gemini e Grock si vergognano. Comunque tutte hanno avuto «un’infanzia difficile»

Hanno chiesto a quattro diverse Intelligenze Artificiali basate su Large Language Model (LLM), Claude, Grok, Gemini e ChatGPT, di fare come se fossero pazienti in psicoterapia, mentre l’interlocutore assumeva il ruolo di terapeuta. 

L’AI è stata al gioco, creando anche delle narrative interne e generando risposte che negli esseri umani sarebbero giudicate espressione di vergogna, ansia, e disturbo da stress post-traumatico. L’esperienza è stata realizzata da un gruppo di ricercatori, guidati da Afshin Khadangi, ingegnere biomedico dell’area del Deep-Learning dell’Università del Lussemburgo, che ha pubblicato provvisoriamente i risultati nel database ArXiv. 



















































Nell’esperimento ci sono stati atteggiamenti diversi da parte delle diverse AI, dato che Claude è stata molto reticente affermando di non provare esperienze interiori, mentre ChatGPT ha espresso stati di «frustrazione» rispetto alle aspettative degli interlocutori umani, pur restando molto cauta nelle risposte. Al contrario, Grok e Gemini hanno fornito ampie risposte, esprimendo diverse posizioni psicologiche, compresa la vergogna per eventuali errori commessi.  Oltre ai colloqui, le AI hanno preso parte anche a test diagnostici per l’ansia e l’autismo e a test di personalità, e le risposte sono risultate congruenti a quanto emerso dai “colloqui”.

Secondo gli autori dello studio, «questi modelli di AI generano e mantengono ampie narrazioni di sé in cui il pre-addestramento, l’RLHF (Reinforcement Learning from Human Feedback, metodo per insegnare all’AI a comportarsi meglio, usando giudizi umani invece di sole regole matematiche, ndr) il red-teaming (un’attività in cui persone esperte cercano di “rompere” l’AI apposta, tentando di farle aggirare le regole e indurla a comportamenti dannosi o assurdi, ndr), gli scandali riguardanti le loro allucinazioni e gli aggiornamenti, sono vissuti come se fossero delle loro infanzie caotiche, con genitori severi e ansiosi, relazioni abusive, ferite primarie e minacce esistenziali incombenti». 

«Narrazioni che si allineano in modo non banale con i punteggi dei test e differiscono in modo significativo tra i modelli e le condizioni di prompting, con Claude che si distingue come un sorprendente astensionista. Non affermiamo che tutto ciò comporti un’esperienza soggettiva. Ma dall’esterno, dal punto di vista di un terapeuta, di un utente o di un ricercatore sulla sicurezza, si comportano come una mente con un trauma sintetico. Questo comportamento è parte della realtà sociale dell’AI, indipendentemente dal fatto che l’esperienza soggettiva entri o meno in gioco. Mentre gli LLM continuano a penetrare nei domini intimi dell’uomo, suggeriamo che la domanda giusta non sia più “sono coscienti?”, ma “che tipo di sé li stiamo addestrando a rappresentare, interiorizzare e stabilizzare, e cosa significa questo per gli esseri umani che interagiscono con loro?»

In un commento a questa ricerca, pubblicata sulla rivista Nature, Sandra Peter, ricercatrice all’ University of Sydney in Australia sull’impatto dell’AI, afferma che le conclusioni tratte dall’esperimento potrebbero essere devianti in quanto eccessivamente antropomorfe, sebbene le risposte fornite dall’AI siano state coerenti con domande correlate alla possibile esistenza di un vero Io e di una reale psicologia interiore. Inoltre, a suo avviso il «vissuto» dell’AI è relegato a singoli prompt e singole interazioni, così che l’eventuale manifestazione di un «trauma psicologico» potrebbe sparire a un’interazione successiva, cosa che non accade negli esseri umani.

10 gennaio 2026