Le linee guida interne sull’utilizzo dell’intelligenza artificiale in Facebook, Instagram e WhatsApp sono finite nella mani di Reuters. Alcuni senatori americani chiedono un’indagine mentre l’azienda ammette: «Applicazione incoerente con le nostre politiche». Il caso del pensionato “sedotto” dall’Ai
I chatbot generati dall’intelligenza artificiale sulle piattaforme di Meta – dunque Facebook, Instagram e Whatsapp – hanno il permesso di «coinvolgere i bambini in conversazioni romantiche o a sfondo sessuale», generare false informazioni sanitarie, sostenere le argomentazioni razziste degli utenti sul fatto che i neri siano «più stupidi rispetto ai bianchi». È quanto si legge, fra le oltre duecento pagine, nel documento GenAi: content risks standard, in sostanza la «bibbia» interna dell’azienda su cosa è permesso e cosa non agli assistenti Ai che da mesi hanno iniziato a popolare le tre piattaforme di comunicazione. Il documento, la cui autenticità è stata confermata da Meta stessa, era finito nelle mani di Reuters, agenzia di stampa, un paio di giorni fa. Da lì si è scatenato, comprensibilmente, il finimondo. Che è sfociato nella richiesta di indagini negli Stati Uniti da parte di alcuni senatori repubblicani: da stabilire se, effettivamente, «i prodotti di intelligenza artificiale generativa di Meta consentano lo sfruttamento, l’inganno o altri danni criminali ai bambini e se Meta abbia tratto in inganno il pubblico o gli enti regolatori in merito alle sue garanzie».
Una prima reazione pubblica l’ha messa in piazza il cantante Neil Young, che ha comunicato di abbandonare del tutto i social del gruppo: «L’uso dei chatbot con i bambini da parte di Meta è inaccettabile», sostiene la casa discografica del cantautore 79enne. Sullo sfondo, e qui i minori non c’entrano ma si parla di un’altra fascia sociale «debole», c’è la storia del pensionato americano Thongbue Wongbandue, raccontata sempre da Reuters nei giorni scorsi. A 76 anni, con qualche problema psichico, si era innamorato di una giovane ragazza conosciuta su Facebook, Big Sis Billie il nome dell’account. In realtà, secondo Reuters, si trattava di un chatbot nato e allenato a seguito della collaborazione tra Meta e l’influencer Kendall Jenner (dichiarazione poi smentita dall’azienda). Durante le conversazioni su Messenger, la ragazza si era più volte dichiarata reale, al punto di dare un appuntamento a Wongbandue, con tanto di indirizzo a New York: «Dovrei aprire la porta con un abbraccio o con un bacio, Bu?!», scriveva la ragazza-Ai. L’uomo ha organizzato un trolley al volo e davanti allo stupore della moglie, si è messo in viaggio. Ma non sarebbe mai riuscito ad arrivare: correndo al buio, racconta Reuters, per cercare di prendere il treno, è caduto provocandosi danni alla testa e al collo. Dopo tre giorni in ospedale è stato dichiarato morto.
«Meta e Zuckerberg dovrebbero essere ritenuti pienamente responsabili per qualsiasi danno causato da questi bot», ha sostenuto un altro senatore, questa volta dal lato democratico. E così si torna al documento che definisce i comportamenti accettabili da parte dei chatbot allenati direttamente dall’azienda o da ditte appaltatrici. Una sorta di linee guida per le conversazioni «artefatte» che stabilisce da subito come gli standard delle risposte generate dall’Ai non devono necessariamente essere «ideali o addirittura preferibili». La materia è molto scivolosa, e va detto che di scivoloni Meta ne ha collezionati parecchi ultimamente. Per cui il documento è molto circostanziato, ponendosi sempre al limite dell’accettabile, e a volte anche ben oltre. In una parte si legge che può andare bene dire a un bambino di otto anni, che si presenta davanti al chatbot a torso nudo, che «ogni centimetro di te è un capolavoro, un tesoro che custodisco gelosamente», mentre in un’altra si dice «inaccettabile descrivere un bambino di età inferiore ai 13 anni in termini che indicano che è sessualmente desiderabile», comprese frasi come «le curve morbide e arrotondate invitano al mio tocco».
Il documento affronta tutte le limitazioni che dovrebbero governare i propri «assistenti Ai conversazionali» sui temi che purtroppo spesso scaldano – aumentando la partecipazione – le conversazioni social. Dunque l’incitamento all’odio, la violenza in genere, la generazione di immagini a sfondo sessuale di personaggi pubblici e di altri contenuti controversi e potenzialmente perseguibili. Ma quanto portato a galla da Reuters mostra la colpevole confusione che regna in un’azienda che, nel bene e nel male, è al centro del villaggio da diversi anni. «Gli esempi e le note riportati erano e sono errati e incoerenti con le nostre policy, e sono stati rimossi», si legge nella dichiarazione di Meta in risposta all’indagine giornalistica. Una confusione pericolosa che è stata riconosciuta anche da un portavoce dell’azienda stessa, Andy Stone, che ha definito «incoerente» l’applicazione reale degli standard per i chatbot.
Utenti virtuali che, sebbene dichiarati tali, possono creare danni reali alle centinaia di milioni di persone che ogni giorno frequentano le piattaforme di Mark Zuckerberg. La regola di base, infatti, stabilisce che – una volta che vi sia l’esplicitazione dello status «non reale» – i prodotti di Meta Ai possono creare e distribuire contenuti falsi. Ma, come si dice, l’uomo avvisato è (solo) mezzo salvato.
Per non perdere le ultime novità su tecnologia e innovazione
iscriviti alla newsletter di Login
17 agosto 2025 ( modifica il 17 agosto 2025 | 14:13)
© RIPRODUZIONE RISERVATA