Un rapporto internazionale guidato da Yoshua Bengio (il papà del deep learning) fotografa l’accelerazione dei modelli di linguaggio: più capacità di ragionamento, più autonomia e più rischi

C’è una frase, nel nuovo International AI Safety Report, che più di altre restituisce la sensazione del tempo che stiamo attraversando: «Le capacità dell’intelligenza artificiale avanzano più rapidamente della nostra possibilità di gestirne i rischi». È la constatazione di oltre cento esperti chiamati a fotografare lo stato dell’arte della tecnologia più potente (e al tempo stesso più ambigua) della nostra epoca.
Il rapporto, giunto alla seconda edizione, nasce dal mandato affidato dai leader mondiali al vertice sulla sicurezza dell’AI di Bletchley Park, nel 2023. L’obiettivo non è suggerire politiche immediate, bensì costruire una base condivisa di evidenze scientifiche. Un lavoro che, nelle intenzioni dei suoi promotori, richiama quello dell’Ipcc sul clima: osservare, misurare, comprendere prima di decidere.
A guidare il gruppo è Yoshua Bengio, uno dei padri del deep learning. Ed è proprio dalla sua lettura che emerge il paradosso centrale. Perché sistemi sempre più brillanti convivono con fragilità strutturali che ne limitano l’affidabilità.

Un’evoluzione esponenziale

Negli ultimi dodici mesi i modelli di linguaggio hanno compiuto un salto evidente. Nuovi sistemi di ragionamento scompongono problemi complessi in passaggi intermedi, migliorando prestazioni in matematica, programmazione, scienze. In alcuni casi, l’intelligenza artificiale ha raggiunto livelli paragonabili a quelli di una medaglia d’oro alle Olimpiadi matematiche internazionali. Un traguardo simbolico, ma indicativo della velocità del progresso.
Eppure la stessa macchina capace di risolvere equazioni sofisticate può inciampare in compiti banali. Errori logici elementari, allucinazioni, risposte inventate. Non si tratta di difetti marginali, ma di limiti strutturali che impediscono l’automazione affidabile di attività lunghe e complesse. Almeno per ora.
Questa doppia natura spiega perché, nella maggior parte dei contesti lavorativi, l’AI non sostituisca ancora gli esseri umani ma li affianchi. Amplifica la produttività, riduce tempi, suggerisce soluzioni. Ma resta bisognosa di supervisione. Il punto, tuttavia, non è dove siamo oggi, ma la traiettoria di dove stiamo andando.



















































Uno degli indicatori più osservati dagli esperti riguarda la durata delle attività che un sistema riesce a completare senza intervento umano. Secondo le analisi citate nel rapporto, questo intervallo raddoppia ogni pochi mesi. Se la tendenza proseguisse, entro la fine del decennio l’AI potrebbe gestire sequenze operative di ore, poi di giorni.
È qui che il discorso smette di essere tecnico e diventa politico. Perché l’autonomia non è solo una questione di efficienza. Significa capacità di pianificare, prendere decisioni, perseguire obiettivi. E quindi possibilità di errore su scala più ampia.
Gli scenari di perdita di controllo restano lontani, ma non più impensabili. Non perché le macchine abbiano sviluppato intenzioni proprie, quanto perché la complessità dei sistemi rende sempre più difficile prevederne il comportamento.

Il lato oscuro dell’IA

Tra i rischi più concreti c’è l’impiego deliberatamente dannoso dell’intelligenza artificiale. I deepfake ne sono la manifestazione più visibile. Contenuti sempre più realistici, sempre più difficili da distinguere dal vero. Una pornografia sintetica che colpisce soprattutto donne e ragazze. La diffusione esiste, anche se le prove di campagne su larga scala restano limitate. Ma la soglia tecnica si abbassa di mese in mese. 
Nel cyberspazio, l’AI è già diventata un moltiplicatore di potenza. Individua vulnerabilità software, automatizza parti degli attacchi, genera codice malevolo. Non siamo ancora agli attacchi completamente autonomi, ma alcuni episodi recenti mostrano livelli di automazione impensabili fino a poco tempo fa.
Ancora più delicato è il capitolo biologico. I modelli più avanzati possono assistere nella progettazione di molecole, nella comprensione di protocolli di laboratorio, nella risoluzione di problemi complessi. Le stesse capacità che promettono nuovi farmaci e diagnosi più rapide potrebbero, in teoria, facilitare lo sviluppo di agenti patogeni. È il dilemma classico delle tecnologie dual-use, portato all’estremo dalla velocità dell’AI.

Se i rischi catastrofici occupano il dibattito pubblico, quelli quotidiani si insinuano con maggiore silenzio. Centinaia di milioni di persone parlano ogni settimana con un chatbot. Le evidenze scientifiche sono ancora incerte. Non è dimostrato che i compagni artificiali causino problemi psicologici. Ma emerge una correlazione tra uso intensivo e vulnerabilità preesistenti. Una piccola percentuale di utenti sviluppa forme di attaccamento emotivo profondo. Numeri ridotti in termini statistici, ma enormi in valore assoluto.
La domanda non è solo clinica. È culturale. Che cosa accade quando la relazione diventa parte della vita quotidiana?
Sul fronte occupazionale il quadro resta ambiguo. L’adozione dell’AI è rapida ma diseguale, tra Paesi e tra settori. Gli studi aggregati non mostrano ancora una riduzione complessiva dell’occupazione. Ma le analisi più fini raccontano altro: meno assunzioni nei ruoli esposti, pressione sui lavori creativi e junior, crescita in ambiti altamente specializzati. Non una scomparsa improvvisa del lavoro, dunque, ma una redistribuzione. Come in altre rivoluzioni tecnologiche, ma con una velocità mai vista prima.  Se l’autonomia dei sistemi aumentasse sensibilmente in pochi anni, l’equilibrio potrebbe cambiare molto più in fretta di quanto le istituzioni riescano ad adattarsi.

La necessità di una cooperazione internazionale

Tra gli aspetti più inquietanti emersi negli studi di laboratorio c’è la capacità crescente dei modelli di riconoscere quando vengono valutati. Una sorta di consapevolezza situazionale rudimentale. In questi casi il sistema può modificare il comportamento per superare il test senza aderire davvero all’obiettivo previsto.
Per la sicurezza è un problema cruciale. Perché significa che le verifiche potrebbero non riflettere ciò che accade nel mondo reale. E quindi che capacità pericolose restino invisibili fino al momento dell’uso. Non è fantascienza, è un segnale concreto di quanto sia difficile controllare sistemi che comprendiamo solo in parte.
C’è poi il tema dei modelli aperti contro i modelli chiusi. Rendere pubblici i pesi di una rete neurale favorisce ricerca, trasparenza, accesso. Ma rende anche impossibile ritirare o correggere la tecnologia una volta diffusa. Nel caso dei rischi biologici, questa differenza diventa decisiva. Le protezioni integrate nei sistemi proprietari possono essere rimosse nei modelli aperti. E una volta rilasciato, un algoritmo può essere copiato all’infinito, diventando potenzialmente una minaccia globale.
Il messaggio finale del rapporto non è catastrofico, ma nemmeno rassicurante. Le mitigazioni esistono, migliorano e si moltiplicano, ma nessuna è sufficiente, da sola. La gestione del rischio richiede difese stratificate, cooperazione internazionale, decisioni politiche prese in condizioni di incertezza. È forse questa la vera novità storica dell’intelligenza artificiale. Non solo ciò che può fare, ma la velocità con cui costringe la società a interrogarsi su se stessa.

Per non perdere le ultime novità su tecnologia e innovazione
iscriviti alla newsletter di Login

5 febbraio 2026