Un nouveau modèle d’intelligence artificielle, conçu en Chine et inspiré directement du cerveau humain, vient bouleverser le paysage de l’IA. Moins gourmand, plus rapide et incroyablement efficace, SpikingBrain pourrait bien redéfinir notre rapport aux modèles comme ChatGPT ou Gemini. Alors, simple prouesse de laboratoire ou révolution imminente ? Je vous explique tout.

Illustration d’un cerveau humain avec des connexions neuronales lumineuses en laboratoire.Le cerveau humain continue de produire de nouveaux neurones à l’âge adulte, une découverte qui remet en cause les connaissances établies en neurosciences – DailyGeekShow.com

SpikingBrain imite le cerveau humain pour activer uniquement les neurones utiles

Il faut d’abord comprendre le fonctionnement des modèles actuels. ChatGPT, Gemini et leurs cousins reposent sur des modèles de langage géants, les fameux LLM (Large Language Models).

C’est impressionnant, mais extrêmement énergivore : chaque requête, chaque mot généré consomme une puissance de calcul folle. Pire encore, pour les entraîner, on doit engloutir des quantités astronomiques de données… qui viennent à manquer.

Lire aussi « Une nouvelle vision pour Grok » : Elon Musk continue de faire des vagues et vire 500 employés de Grok en un week-end après un test surprise

C’est là qu’intervient SpikingBrain, développé par des chercheurs de l’Académie chinoise des sciences. Leur pari ? Imiter le fonctionnement des neurones humains. Plutôt que d’activer tous les « neurones » à chaque traitement (comme le fait un LLM), le modèle n’active que ceux nécessaires à l’instant T, comme dans notre cerveau.

Le résultat est qu’il consomme moins d’énergie, moins de calcul, mais des réponses tout aussi pertinentes.

Ce principe repose sur les SNN (Spiking Neural Networks), des réseaux neuronaux à impulsions. Chaque neurone numérique ne s’active que s’il reçoit un signal suffisant. C’est beaucoup plus proche de notre système biologique que les approches classiques… et diablement plus efficace.

Lire aussi Elon Musk et son salaire record de 1 000 milliards : le salaire qui affole le monde qui cache une réalité bien plus modeste avec un plan visionnaire pour Tesla

Moins de 2 % des données nécessaires et jusqu’à 100 fois plus rapide que ChatGPT

Et les chiffres donnent le tournis. Les chercheurs ont testé deux versions de SpikingBrain, l’une avec 7 milliards, l’autre avec 76 milliards de paramètres. Et là, surprise : avec un prompt de 4 millions de tokens, le plus petit modèle était 100 fois plus rapide qu’un LLM classique.

Autre test : en simulant une requête avec un contexte d’un million de tokens (ce qui est énorme), SpikingBrain a généré le premier mot 26,5 fois plus rapidement qu’un modèle classique.

Tout ça avec moins de 2 % des données nécessaires habituellement pour l’entraînement. En d’autres termes : moins de carburant, plus de kilomètres.

Lire aussi Ce robot humanoïde apprend vos gestes du quotidien : observez-le remplir un lave-vaisselle et accomplir un travail industriel comme un humain

Dans un monde où les data commencent à se raréfier (oui, même pour l’IA), ce genre d’approche pourrait bien devenir la solution la plus durable. Et en plus, le modèle est open source, disponible sur GitHub pour les chercheurs et développeurs du monde entier. Un geste rare dans ce secteur.

Ce modèle fonctionne sans puces Nvidia grâce à l’informatique neuromorphique

Mais ce n’est pas tout. SpikingBrain n’est pas juste un bijou logiciel. Il a aussi été optimisé pour fonctionner sans les fameuses puces Nvidia, aujourd’hui au cœur de presque toutes les IA génératives. En Chine, où l’accès à ces composants est limité par des restrictions internationales, il fallait une alternative. Les chercheurs l’ont trouvée avec des puces MetaX.

Mieux encore, SpikingBrain s’intègre parfaitement avec une technologie émergente : l’informatique neuromorphique. C’est quoi ça ? Des processeurs conçus pour imiter physiquement les neurones biologiques, pas juste les simuler via des lignes de code. Une sorte de cerveau électronique miniaturisé.

Lire aussi 97,6 milliards pour racheter ChatGPT : les dessous de l’offre colossale d’Elon Musk à Mark Zuckerberg contre Microsoft

Cette synergie entre matériel et logiciel pourrait mener à des IA bien plus rapides, mais surtout beaucoup moins énergivores. Et quand on sait que l’empreinte carbone des grands modèles d’IA explose, ce genre d’innovation tombe à pic.

SpikingBrain ouvre la voie à une IA plus proche du vivant, plus économe et plus intelligente

Alors, est-ce que SpikingBrain signe la fin de ChatGPT ? Pas si vite. Les LLM ont encore de beaux jours devant eux, surtout pour des usages généralistes. Mais cette nouvelle approche cérébrale change la donne. Elle montre qu’on peut faire plus avec moins, et surtout autrement.

Dans les années à venir, on pourrait bien voir des IA hybrides, mêlant SNN et LLM, matériel neuromorphique et puces classiques.

Lire aussi « Elon Musk est en retard » : ce robot fait sensation en Asie et pourrait relancer le débat sur l’avenir des métiers d’hospitalité et d’accueil en France

Un peu comme si on fusionnait les meilleurs éléments du vivant et de la machine. Bref, une IA qui ne copie plus seulement nos mots, mais notre manière de penser.