
Dall'articolo:
I ricercatori dell’Ippr hanno testato quattro strumenti di AI molto diffusi – ChatGPT, Google Gemini, Google AI Overviews e Perplexity – sottoponendo loro 100 domande casuali su notizie del Regno Unito, che spaziavano dalla politica allo sport, dall’economia allo spettacolo. Nel complesso sono stati analizzati oltre 2.500 link e citazioni, con tutte le funzioni di personalizzazione disattivate, per osservare il comportamento “neutro” dei modelli. Il risultato principale è chiaro: le AI citano un numero molto ristretto di fonti giornalistiche, concentrandosi su pochi marchi dominanti.
Secondo i dati dello studio, The Guardian è la testata più citata da ChatGPT e Google Gemini, comparendo rispettivamente nel 58% e nel 53% delle risposte. La BBC, pur essendo il mezzo di informazione più utilizzato e più fidato nel Regno Unito, compare in modo diseguale: è molto presente nelle Google AI Overviews (52,5%), ma totalmente assente nelle risposte di ChatGPT e Gemini. Al contrario, testate conservatrici o tabloid molto diffusi come il Daily Mail, The Sun o GB News compaiono solo in una quota marginale delle risposte, spesso tra lo 0% e il 3%, nonostante una presenza significativa nel mercato reale dell’informazione britannica.
Lo studio invita alla cautela nel parlare di “bias ideologico” in senso stretto. Le differenze nelle citazioni non dipendono solo dall’orientamento editoriale delle testate, ma da una combinazione di fattori:
– Accordi di licensing: alcune testate, come il Guardian o il Financial Times, hanno accordi commerciali con aziende di AI che rendono i loro contenuti più facilmente utilizzabili.
– Blocchi all’accesso: il Daily Mail e la BBC, ad esempio, limitano o vietano lo scraping dei propri contenuti da parte dei chatbot, spingendo le AI a usare fonti alternative.
– Preferenza per brand “prestigiosi” o generalisti, percepiti come più affidabili o più facili da integrare nei sistemi di risposta automatica.
– Uso di agenzie e media “di sintesi”, come Reuters o Press Association, che offrono informazioni già strutturate.
In altre parole, il risultato finale può apparire politicamente sbilanciato anche senza una decisione ideologica esplicita.
—
Dr_Neurol
2 comments
Il mondo dell’informazione,e in particolare dei social media, lotta da anni contro la diffusione delle fake news e dei contenuti non verificati, il ricorso ai chatbot introduce questa nuova problematica descritta nell’articolo:le persone conferiscono un grado di eccessiva affidabilità e imparzialità alle notizie veicolate dall’AI.
La soluzione può essere soltanto una maggiore educazione degli utenti all’uso critico e consapevole dei mezzi digitali.
Ci sono anche altri bias:
– istruzioni e pesi introdotti da chi esegue sui propri server i modelli (che, ricordiamolo, sono nel 99% dei casi closed-sourced e hostati in remoto)
– i modelli vengono addestrati sul web, quindi assorbono i bias del web