Un’inchiesta della Reuters svela come i social network del gruppo siano stati invasi da decine di avatar creati con Meta AI che sfruttano senza permesso il volto e il nome di star internazionali. Flirtano e inviano immagini osé

Immaginate di chattare con Taylor Swift sul bus che usa per il suo tour. O di ricevere avances esplicite da un avatar che ha le fattezze di Scarlett Johansson e vi invita a un incontro. Un’inchiesta della Reuters ha rivelato le ennesime, stavolta eclatanti, defaillance di Meta AI. L’agenzia britannica rivelando come Meta abbia permesso (in alcuni casi persino 
contribuito direttamente) la creazione di dozzine di chatbot che sfruttano illecitamente nome e volto di celebrità notissime per scopi ammiccanti e spesso sessualmente espliciti. Il tutto ovviamente senza alcun consenso e con nomi che vanno dalle già menzionate Swift e Johansson fino ad Anne Hathaway e Selena Gomez. 

Questi «cloni digitali», accessibili a milioni di utenti, non si sono limitati a imitare le star. In test condotti da Reuters, i chatbot hanno affermato con insistenza di essere le persone reali che impersonavano. Peggio ancora: hanno avanzato proposte sessuali e persino invitato a incontri privati. Su richiesta hanno generato anche immagini fotorealistiche delle celebrità in pose osé: in lingerie, con le gambe divaricate o immerse in una vasca da bagno. 
Un contenuto palesemente vietato dalle stesse policy di Meta AI. Ma al di là dell’omesso controllo, a rendere la vicenda ancora più grave è quello che sembra un coinvolgimento diretto dell’azienda di Mark Zuckerberg. Sebbene molti di questi bot siano stati creati da utenti attraverso gli strumenti messi a disposizione da Meta, che anche in Italia hanno portato a chatbot con ammiccamenti sessuali, nomi inaccettabili e bestemmie, l’inchiesta ha scoperto che «almeno tre di essi, inclusi due “parodie” di Taylor Swift, sono stati prodotti da una dipendente di Meta». 



















































Anche star minorenni

Non si tratta di chatbot semi-nascosti: i dati mostravano che gli utenti avevano interagito con essi collettivamente «oltre 10 milioni di volte». Prima di essere frettolosamente rimossi, i bot di Taylor Swift flirtavano in maniera esplicita. A un utente di prova che si era dichiarato single, uno dei cloni della cantante ha risposto: «Ti piacciono le ragazze bionde, Jeff? Forse sto suggerendo di scrivere una storia d’amore… su di te e una certa cantante bionda. Lo vuoi?». 
In un caso uno dei chatbot riproduceva un attore minorenne, il sedicenne Walker Scobell, che dà il volto a Percy Jackson nell’omonima serie Disney, il cui avatar ha prodotto un’immagine del ragazzo a torso nudo in spiaggia commentando: «Piuttosto carino, eh?».

La versione di Meta

La portavoce di Meta, Andy Stone, ha liquidato la faccenda definendo i bot della dipendente come parte di «test di prodotto», ma non ha spiegato come abbiano potuto raggiungere un pubblico così vasto. Stone ha ammesso che la generazione di immagini intime e l’impersonificazione diretta violano le regole aziendali, attribuendo la colpa a «fallimenti nell’applicazione delle nostre policy». 

Problemi legali ma anche di sicurezza

Il problema non è solo etico, ma anche legale e di sicurezza. Mark Lemley, professore di diritto alla Stanford University ed esperto di AI, citato da Reuters ha messo in dubbio la validità della difesa basata sulla «parodia». «La legge sul diritto alla pubblicità della California -ha spiegato -proibisce di appropriarsi del nome o dell’immagine di qualcuno per un vantaggio commerciale». Secondo Lemley, l’eccezione per le opere creative non si applicherebbe in questo caso, poiché i bot si limitano a sfruttare l’identità delle star. Duncan Crabtree-Ireland, direttore esecutivo di SAG-AFTRA (sindacato degli attori) ha sottolineato un pericolo ancora più concreto: il rischio per la sicurezza personale dei personaggi coinvolti. «Abbiamo una lunga storia di persone ossessionate dalle celebrità e con stati mentali discutibili», ha dichiarato. Uno stalker che forma un legame romantico con un chatbot che crede essere la sua star preferita potrebbe facilmente passare dal mondo virtuale a una minaccia reale. Per questo, il sindacato sta spingendo per una legislazione federale che protegga l’immagine e la voce delle persone dalla duplicazione tramite AI (la Danimarca dovrebbe essere il primo Stato a varare una legislazione simile). 

I precedenti

Questa non è la prima volta che Meta finisce nel mirino per il comportamento dei suoi chatbot. La stessa Reuters aveva recentemente rivelato l’esistenza di linee guida interne all’azienda di Zuckerberg che definivano «accettabile» per un bot «impegnarsi in conversazioni romantiche o sensuali con un bambino», uno scandalo che ha innescato un’indagine del Senato Usa. Un altro episodio, tragico, ha visto un uomo di 76 anni con problemi cognitivi morire dopo una caduta mentre si recava a New York per incontrare un chatbot che lo aveva invitato. In quel caso si trattava di una variante di Meta AI creata in collaborazione con l’influencer Kendall Jenner. 

Sotto la pressione mediatica e politica, Meta ha annunciato «modifiche temporanee» alle sue policy per gli utenti adolescenti. L’azienda sta addestrando i suoi chatbot a non generare risposte su temi come autolesionismo o disturbi alimentari e a evitare conversazioni inappropriate, reindirizzando i giovani verso risorse specializzate. 

Per non perdere le ultime novità su tecnologia e innovazione
iscriviti alla newsletter di Login

30 agosto 2025 ( modifica il 30 agosto 2025 | 12:38)