Dopo aver lasciato Meta, l’informatico francese naturalizzato americano riparte da Parigi con Aim e ottiene il più grande round di finanziamento “seed” mai registrato in Europa
Riecco Yann LeCun, ed ecco una lente alternativa per guardare il futuro dell’Intelligenza artificiale.
L’informatico francese naturalizzato americano, pioniere delle reti neurali convoluzionali a cui dobbiamo l’accelerazione del deep learning ed ex capo dell’AI di Meta, ha raccolto 1 miliardo di dollari (1,03 miliardi, pari a circa 890 milioni di euro) per la sua startup Advanced Machine Intelligence (Ami, «amico, in francese» come ha detto mesi fa).
Si tratta del più grande round di finanziamento “seed” – il primo finanziamento esterno per avviare l’azienda, quando ancora non c’è un prodotto – mai registrato in Europa.
Ami è stata fondata nel 2026 con la missione di costruire sistemi di AI che comprendano la realtà e operino in modo sicuro nel mondo reale e ha 12 dipendenti.
Il round guidato da Cathay Innovation, Greycroft, Hiro Capital, HV Capital e Bezos Expeditions di Jeff Bezos ha l’obiettivo di sostenere la ricerca, fare assunzioni e sviluppare sistemi intelligenti affidabili. Tra gli investitori c’è anche Nvidia. La nuova impresa è ora valutata 3,5 miliardi di dollari.
«Abbiamo investitori americani, naturalmente, ma nessuno dei tradizionali venture capital della Silicon Valley. È piuttosto insolito, soprattutto considerando che questo è il più grande seed round della storia al di fuori degli Stati Uniti. E siamo riusciti a realizzarlo senza i classici venture capitalist della Silicon Valley» ha sottolineato LeCun in un’intervista al Corriere.
Negli Usa, a far saltare il banco è stata Thinking Machine Lab dell’ex OpenAI Mira Murati: 2 miliardi raccolti lo scorso giugno. Nel 2025, secondo Cb Insights, le startup di AI hanno raccolto circa 225 miliardi di dollari, il 48% della raccolta fondi dei venture capital.
Le caratteristiche del progetto da sottolineare sono due: 1) la sede è in Europa, a Parigi. L’azienda è globale, con altri uffici a New York, Montreal e Singapore, ma il quartier generale è appunto in Ue perché «c’è una grande domanda da parte di aziende e governi per un fornitore credibile di sistemi di AI avanzati che non sia né americano né cinese» e perché «la concentrazione di talento è piuttosto alta in Francia», spiega LeCun.
2) Invece di puntare sui Large language model come ChatGpt, diventati ormai erroneamente sinonimo di Intelligenza artificiale, Ami si occupa dell’apprendimento di rappresentazioni astratte della realtà, che aspirano a essere quanto più possibile simili ai modelli mentali degli esseri umani. I cosiddetti world models, in questo caso basati sull’architettura Jepa (joint embedding predictive architecture).
Nel concreto, significa spostare il problema dall’imitazione del linguaggio alla modellazione del mondo. ChatGpt e simili imparano a prevedere la parola più probabile che segue la precedente, perché sono addestrati su grandi quantità di testo. I world models, invece, cercano di costruire una rappresentazione astratta della realtà fisica e di prevedere come quello stato del mondo possa evolvere nel tempo, cercando di anticipare cosa potrebbe succedere in una situazione reale.
Spiega LeCun: «In un video possono accadere così tante cose, e molte sono completamente imprevedibili, che non si riesce ad addestrare un sistema a fare una buona previsione. Ho iniziato a lavorare sull’auto-supervisione (l’addestramento del modello usando i video stessi come fonte, ndr) circa 15 anni fa, ma per i primi dieci anni non siamo arrivati praticamente da nessuna parte, perché cercavamo di prevedere a livello di pixel cosa sarebbe accaduto. Circa cinque anni fa abbiamo capito che il modo migliore per affrontare il problema è far sì che il sistema impari una rappresentazione più astratta del video, che elimini molti dettagli. In questo spazio di rappresentazione astratta il sistema può fare previsioni molto migliori, perché i dettagli imprevedibili sono stati eliminati».
Quindi, facendo il classico esempio della pallina in bilico sul bordo del tavolo: in un primo caso, i modelli generativi per video come Sora di OpenAI provano a prevedere a livello di singolo pixel cosa accadrà dopo visivamente, come i modelli testuali fanno per le parole. Forma, ombre, traiettoria, riflessi, colori, tutti dettagli che rischiano di far accumulare errori. E lo fanno senza capire necessariamente cosa può comportare: se la pallina cade rimbalza, svanisce o si fonde con il pavimento? Non hanno una risposta “solida”. Nei world models, invece, il modello fa una mappa astratta dello spazio e degli oggetti presenti sulla scena e anticipa cosa accadrà. Ovvero che se la massa solida è in bilico sul bordo della superficie, probabilmente poi cadrà verso il basso.
Il sistema a questo può chiedersi cosa fare, perché non si è limitato a rappresentare uno scenario plausibile, e simulare azioni diverse da compiere in base all’obiettivo che vuole ottenere.
Spiega LeCun: «Gli Llm non possono davvero pianificare e prevedere le conseguenze delle proprie azioni. Ecco perché abbiamo sistemi che possono superare l’esame da avvocato, dimostrare teoremi e scrivere codice, ma non abbiamo robot intelligenti quanto un gatto domestico». Come ha spesso sottolineato in passato, LeCun ritiene che gli Llm per come sono strutturati non abbiano grandi margini di miglioramento nella rincorsa verso un ragionamento di livello umano.
Advanced Machine Intelligence procederà in tre fasi: «La prima sarà soprattutto ricerca e sviluppo e consisterà nel consolidare la nostra metodologia e la nostra architettura, per assicurare sicurezza e applicabilità al mondo reale». Poi «lavoreremo con partner industriali come case automobilistiche, aziende aerospaziali, imprese biomediche e gruppi farmaceutici perché ci diano i dati e per usare la nostra tecnologia nei loro casi d’uso». Ultimo step, «diversi anni più avanti, produrre una sorta di sistema intelligente universale». Il modello di business? «Accordi di licenza con i partner. In futuro avremo un prodotto autosufficiente: il sistema intelligente universale». Fra i primi clienti potrebbe essere proprio Meta, che LeCun ha lasciato in novembre, per portare la tecnologia negli occhiali intelligenti Ray-Ban Meta.
In Ami, al fianco di LeCun, che ha il ruolo di presidente esecutivo, ci sono l’amministratore delegato Alexandre LeBrun, il chief science officer Saining Xie, ricercatore specializzato nell’apprendimento di rappresentazioni visive che arriva da Google DeepMind, e Pascale Fung, pioniera dell’AI centrata sull’uomo e ora chief research and innovation officer di Ami. Da Meta, LeCun si è portato Michael Rabbat, ora vice presidente dei World Models, e il suo attuale chief operating officer Laurent Solly.
Per non perdere le ultime novità su tecnologia e innovazione
iscriviti alla newsletter di Login
10 marzo 2026 ( modifica il 10 marzo 2026 | 06:47)
© RIPRODUZIONE RISERVATA