di Martina Pennisi

«Oggi i sistemi di Intelligenza Artificiale funzionano bene solo con dati che possono essere rappresentati come sequenze di elementi separati. Ma il mondo reale non è così» spiega. Dall’addio a Zuckerberg al progetto di un «sistema intelligente universale»

Parigi, 1970. È l’anno dell’Apollo 13, tentativo fallito di raggiungere nuovamente la luna, e dell’iconica frase «Houston, abbiamo un problema». L’anno dei 23 minuti su Venere della sonda sovietica Venera 7, primo oggetto costruito dall’uomo ad atterrare con successo su un altro pianeta e capace di trasmettere dati verso la Terra.

Un bambino di 9 anni va al cinema a vedere 2001: Odissea nello spazio con il fratello e il padre, un ingegnere aerospaziale. È già appassionato di spazio, scienza e ingegneria, ma quel film è destinato a piantarglisi in testa per non uscirne più.



















































«Toccava tre temi che mi colpirono molto. Il primo era il viaggio nello spazio. Il secondo era l’emergere dell’intelligenza negli esseri umani. Questa domanda mi affascinava molto. Leggevo libri sull’evoluzione e mi chiedevo come fosse possibile che l’evoluzione producesse qualcosa come l’intelligenza. Che cos’è davvero l’intelligenza? mi domandavo. Quella domanda, in un certo senso, è diventata la mia professione, all’epoca era solo una fascinazione infantile. Il terzo tema era l’intelligenza artificiale: nel film c’è un computer intelligente e l’idea mi sembrava straordinaria. Da allora, ho iniziato a pensare che il modo migliore per capire che cosa sia l’intelligenza fosse provare a costruire un sistema intelligente».

E lo ha fatto, con un certo successo: Yann LeCun, scienziato francese naturalizzato americano, è uno dei pionieri dell’AI. Nel 2018 ha vinto il premio Turing, considerato il Nobel per l’informatica, con Yoshua Bengio e Geoffrey Hinton per aver contribuito con le loro scoperte — insieme e separati — all’inizio dell’era dell’apprendimento profondo (deep learning). Che è alla base di tutti i sistemi moderni che inseguono la chimera di un’intelligenza parallela imitando il funzionamento del cervello umano attraverso strutture che si chiamano reti neurali artificiali.

Il destino ci aveva già messo del suo per rendere la cosa ancora più appassionante e aveva diviso così il terzetto: Hinton lavorava già per Google, a cui aveva venduto la sua startup di ricerca Dnnresearch. Nel 2023 darà le dimissioni per essere libero di parlare dei rischi dell’AI e l’anno dopo vincerà il Nobel per la Fisica, sempre per gli studi sulle reti neurali.
Bengio era e rimarrà un ricercatore indipendente, preoccupato per le derive dell’utilizzo del loro lavoro a fini commerciali. Lo scorso giugno ha lanciato la no-profit LawZero per creare modelli AI etici.

LeCun era stato assoldato da Mark Zuckerberg, dopo un lungo corteggiamento culminato in una cena a casa dell’imprenditore, in California, per creare una struttura di Intelligenza artificiale interna a Meta, che all’epoca si chiamava Facebook. Nel novembre del 2025, LeCun ha dato le dimissioni, chiudendo il rapporto lavorativo iniziato 12 anni prima. «Mark era dispiaciuto che me ne andassi. Ho ottimi rapporti con lui e con Meta nel suo complesso. Ma le nostre traiettorie stavano in un certo senso divergendo e aveva senso prendere strade diverse» racconta LeCun a 7

Risponde in videochiamata da Parigi, sorridente, pacato e gentile come in ogni conversazione che abbiamo avuto in passato. Con l’umiltà di precisare che sì è proprio lui, Yann, nonostante sullo schermo compaia un altro nome, quello del suo collaboratore che ha attivato la chiamata. E ci siamo solo noi due nella conversazione: non c’è il collaboratore o un o una pr pronti a intervenire, come può accadere quando si sta parlando dell’avvio di una nuova startup (a cui arriveremo tra poco).

Yann LeCun, il pioniere: «Un gatto è più intelligente dei nostri robot domestici»

Torniamo agli anni di Meta, in cui ha lasciato il segno contribuendo a convincere Zuckerberg a rendere open source i suoi modelli: «Lavoravo all’interno di Fair (il laboratorio AI di Meta fondato da LeCun, ndr) e stavamo iniziando a ottenere risultati davvero buoni. Ho avuto per molto tempo il supporto di Mark e di Andrew Bosworth, il direttore tecnologico dell’azienda. A un certo punto però mi sono reso conto che molte delle applicazioni della tecnologia che stavamo sviluppando riguardavano soprattutto l’industria, ambiti che non rientrano nelle priorità di Meta, che è molto concentrata nel connettere le persone tra loro. A differenza di altre aziende tecnologiche non si è diversificata in molti altri settori. E la nostra tecnologia andava molto oltre. Mark ha capito che io volevo accelerare sul mio progetto, renderlo un prodotto reale e applicarlo a molti casi d’uso».

LeCun assicura che «non c’è e non c’è stato alcun conflitto o disaccordo», ma non si può non domandarsi — e domandargli — che ruolo abbia avuto nella sua decisione l’arrivo in Meta di Alexandr Wang, 28 anni, più giovane dei tre figli di LeCun (39, 37, 34 anni). Superstar «furba» dall’AI di oggi, ha capito che in tutto questo tripudio di tecnologia, gli esseri umani sono ancora molto utili per fare una cosa, oltre che per programmare modelli: pulire ed etichettare i dati, manualmente. Spiegare all’AI cosa sta vedendo nei video, nelle immagini e nei testi, così da renderla più performante e aiutarla nella fase di apprendimento. 

Partendo da questo servizio, la sua startup Scale AI è arrivata a valere 29 miliardi di dollari. Zuck ci ha investito 14,3 miliardi e ha assunto Wang, mettendolo di fatto in contrapposizione a LeCun. Il genio scientifico e visionario contro quello pragmatico e imprenditoriale. E «inesperto» nell’ambito della ricerca, come lo aveva definito LeCun in passato.

Spiega, senza mai nominarlo direttamente: «Lui è molto concentrato sui Large language model (i modelli per generare linguaggio umano come ChatGpt, ndr). E lo si può capire da un punto di vista strategico per un’azienda come Meta: devono recuperare terreno rispetto al resto dell’industria. Sono percepiti come un po’ indietro. In realtà la tecnologia di base è molto buona e c’è molta competenza, ma era necessario concentrare molte risorse per rimettersi in pari. C’è stata anche la sensazione che Llama 4 (l’ultima versione dell’Llm di Meta, ndr) fosse stata in parte una delusione, quindi si è rafforzata l’idea che servisse maggiore focalizzazione. Questo ha portato alla riorganizzazione avvenuta nel 2025. In Silicon Valley esiste anche una sorta di effetto gregge: tutte le grandi aziende finiscono per lavorare sulle stesse cose, perché non possono permettersi di scegliere una strada leggermente diversa e rischiare di restare indietro rispetto alle altre. Così le aziende continuano ad assumere ingegneri le une dalle altre e cercano soprattutto di tenere il passo. Noi stiamo lavorando su qualcosa di completamente diverso. In questo senso siamo, in gran parte, fuori da quella dinamica».

Quando dice «noi» si riferisce alla startup che ha fondato quest’anno: Advanced Machine Intelligence. «Ami, amico in francese» come ha sottolineato mesi fa, svelando una delle due caratteristiche principali dell’impresa: la sede in Europa. A Parigi, appunto. «C’è una grande domanda da parte di aziende e governi per un fornitore credibile di sistemi di AI avanzata che non sia né americano né cinese» e «la concentrazione di talento è piuttosto alta in Francia». 

Con la Silicon Valley dell’effetto gregge ha preso le distanze. Il miliardo di dollari (1,03) che ha raccolto «arriva anche da investitori americani, naturalmente, ma nessuno di questi è un tradizionale venture capital della Silicon Valley. È piuttosto insolito, soprattutto considerando che questo è il più grande seed round della storia in Europa».

Chi ha scommesso — Cathay Innovation, Greycroft, Hiro Capital, HV Capital, Bezos Expeditions di Jeff Bezos e anche Nvidia — ha scommesso su di lui, sulla sua idea di futuro che si basa sui cosiddetti world models, reti neurali che simulano mondi artificiali. E che va oltre quelli che ritiene siano le due grandi limitazioni che non permetteranno agli Llm di raggiungere o addirittura superare l’intelligenza umana: «La prima è che funzionano bene solo con dati che possono essere rappresentati come sequenze di elementi separati — parole, simboli del codice, formule matematiche. Il linguaggio umano è uno di questi. Ma il mondo reale non funziona così. Nel mondo reale ricevi dati dai sensori: dati visivi da una telecamera, misurazioni di sensori in un processo industriale, dati finanziari o biologici. E questi dati sono continui. Non sono simboli, sono numeri. Inoltre sono ad alta dimensionalità: ogni misurazione può includere migliaia di variabili» spiega.

La seconda limitazione «riguarda il modo in cui gli Llm producono l’output (le risposte, ndr), cioè attraverso la cosiddetta predizione autoregressiva. Durante l’addestramento si prende una sequenza di parole o simboli e si insegna al modello a prevedere la parola successiva. Naturalmente non è possibile prevedere con certezza quale parola verrà dopo. Quello che il modello fa è assegnare una probabilità a ogni parola del vocabolario. In questo modo gestisce l’incertezza. C’è sempre una probabilità che il sistema devii e produca una parola che non ha nulla a che vedere con la risposta. È ciò che oggi viene chiamato allucinazione. E se il sistema deve compiere azioni, non ha alcun modo di prevederne le conseguenze. Per questo oggi abbiamo sistemi che possono superare l’esame da avvocato, dimostrare teoremi matematici o scrivere codice, ma non abbiamo robot domestici. Non abbiamo nemmeno robot intelligenti quanto un gatto domestico, perché gli Llm non gestiscono bene il mondo reale».

Con Ami e la sua architettura Jepa (Joint Embedding Predictive Architecture), LeCun vuole creare una sorta di sistema intelligente universale, ancorato al mondo reale e fisico, e metterlo a disposizione di partner industriali come case automobilistiche, aziende aerospaziali, imprese biomediche e gruppi farmaceutici.

E se si trovasse come Dario Amodei, amministratore delegato di Anthropic, a dover decidere se lasciare che la sua tecnologia venga usata a scopi bellici o per la sorveglianza di massa? O al posto di Sam Altman, amministratore delegato di OpenAI, che ha visto nel passo indietro di Amodei con il governo degli Stati Uniti un’opportunità (commerciale) per subentrare, cosa farebbe? «Beh, io non mi metterei in quella posizione. E una delle ragioni per cui abbiamo deciso di stabilire l’azienda in Europa è anche, in parte, geopolitica», risponde senza esitazione.

E spiega: «Mi lasci dire come la penso: persone come me, o come Dario Amodei o Sam Altman, non dovrebbero essere incaricate di decidere per la società come la tecnologia debba essere utilizzata dalla società. Non abbiamo la legittimità per farlo. Possiamo contribuire al dibattito pubblico. Possiamo decidere su quali progetti lavorare e su quali no. Per esempio, possiamo scegliere di non lavorare su applicazioni legate alla difesa o di non accettare contratti dal Dipartimento della Difesa di alcuni paesi. Ma in ultima analisi la decisione su come usare una tecnologia dovrebbe spettare alle istituzioni democratiche, non ai singoli tecnologi o alle loro preferenze personali».

Prosegue: «Faccio un esempio. Alcuni anni fa alcuni miei colleghi accademici parteciparono a discussioni alle Nazioni Unite e fecero lobbying per un accordo internazionale che vietasse l’uso dell’intelligenza artificiale nelle armi autonome. Io non ho mai partecipato a quell’iniziativa e non pensavo fosse una buona idea. Oggi lo vediamo nel conflitto in Ucraina: l’AI viene utilizzata per guidare droni autonomi e, di fatto, contribuisce alla difesa della democrazia liberale in Europa. Possiamo fare dichiarazioni di principio, ma alla fine queste sono scelte morali difficili e spetta alla società nel suo complesso prenderle».

I timori sulla pervasività dell’AI riguardano anche il lavoro e la formazione. Secondo un recente studio pubblicato da Anthropic, l’AI non sta ancora cancellando intere categorie professionali, ma ha ridotto le assunzioni dei giovani tra i 22 e i 25 anni e tende a sostituire i ruoli di ingresso. Quelli in cui si impara. Proviamo a chiedere a LeCun, indomito ottimista, se il dato lo preoccupi, se sarà più difficile imparare una professione: «Succede da secoli, se non da millenni. Ogni volta che appare una nuova tecnologia — soprattutto una tecnologia della comunicazione o un nuovo fenomeno culturale — le persone temono i cambiamenti che potrebbe portare alla società. E immancabilmente qualcuno dice che perderemo certe capacità perché ora le macchine faranno quelle cose al posto nostro. L’intelligenza artificiale probabilmente renderà le persone più intelligenti, più efficienti e forse anche più razionali. Ma dobbiamo imparare a usarla e costruire sistemi che siano davvero utili».

Quando arriveremo a un’intelligenza paragonabile a quella umana, se ci arriveremo? «La vera domanda è un’altra» rilancia: «Avremo sistemi più intelligenti degli esseri umani? Nella stima più ottimistica direi tra circa cinque anni, ma è molto probabile che ci voglia molto più tempo».

L’intelligenza artificiale sta cambiando le nostre vite. Private, pubbliche, professionali. In che modo lo vediamo giorno per giorno, seguendo l’evoluzione dei chabot e di tutti i sistemi di AI generativa. Troppo spesso in assenza di regole. Dai protagonisti alle più promettenti linee di ricerca, un viaggio a puntate sulla dematerializzazione di tutto il nostro mondo

28 marzo 2026