Un nouveau modèle d’intelligence artificielle, conçu en Chine et inspiré directement du cerveau humain, vient bouleverser le paysage de l’IA. Moins gourmand, plus rapide et incroyablement efficace, SpikingBrain pourrait bien redéfinir notre rapport aux modèles comme ChatGPT ou Gemini. Alors, simple prouesse de laboratoire ou révolution imminente ? Je vous explique tout.
Le cerveau humain continue de produire de nouveaux neurones à l’âge adulte, une découverte qui remet en cause les connaissances établies en neurosciences – DailyGeekShow.com
SpikingBrain imite le cerveau humain pour activer uniquement les neurones utiles
Il faut d’abord comprendre le fonctionnement des modèles actuels. ChatGPT, Gemini et leurs cousins reposent sur des modèles de langage géants, les fameux LLM (Large Language Models).
C’est impressionnant, mais extrêmement énergivore : chaque requête, chaque mot généré consomme une puissance de calcul folle. Pire encore, pour les entraîner, on doit engloutir des quantités astronomiques de données… qui viennent à manquer.
C’est là qu’intervient SpikingBrain, développé par des chercheurs de l’Académie chinoise des sciences. Leur pari ? Imiter le fonctionnement des neurones humains. Plutôt que d’activer tous les « neurones » à chaque traitement (comme le fait un LLM), le modèle n’active que ceux nécessaires à l’instant T, comme dans notre cerveau.
Le résultat est qu’il consomme moins d’énergie, moins de calcul, mais des réponses tout aussi pertinentes.
Ce principe repose sur les SNN (Spiking Neural Networks), des réseaux neuronaux à impulsions. Chaque neurone numérique ne s’active que s’il reçoit un signal suffisant. C’est beaucoup plus proche de notre système biologique que les approches classiques… et diablement plus efficace.
Moins de 2 % des données nécessaires et jusqu’à 100 fois plus rapide que ChatGPT
Et les chiffres donnent le tournis. Les chercheurs ont testé deux versions de SpikingBrain, l’une avec 7 milliards, l’autre avec 76 milliards de paramètres. Et là, surprise : avec un prompt de 4 millions de tokens, le plus petit modèle était 100 fois plus rapide qu’un LLM classique.
Autre test : en simulant une requête avec un contexte d’un million de tokens (ce qui est énorme), SpikingBrain a généré le premier mot 26,5 fois plus rapidement qu’un modèle classique.
Tout ça avec moins de 2 % des données nécessaires habituellement pour l’entraînement. En d’autres termes : moins de carburant, plus de kilomètres.
Dans un monde où les data commencent à se raréfier (oui, même pour l’IA), ce genre d’approche pourrait bien devenir la solution la plus durable. Et en plus, le modèle est open source, disponible sur GitHub pour les chercheurs et développeurs du monde entier. Un geste rare dans ce secteur.
Ce modèle fonctionne sans puces Nvidia grâce à l’informatique neuromorphique
Mais ce n’est pas tout. SpikingBrain n’est pas juste un bijou logiciel. Il a aussi été optimisé pour fonctionner sans les fameuses puces Nvidia, aujourd’hui au cœur de presque toutes les IA génératives. En Chine, où l’accès à ces composants est limité par des restrictions internationales, il fallait une alternative. Les chercheurs l’ont trouvée avec des puces MetaX.
Mieux encore, SpikingBrain s’intègre parfaitement avec une technologie émergente : l’informatique neuromorphique. C’est quoi ça ? Des processeurs conçus pour imiter physiquement les neurones biologiques, pas juste les simuler via des lignes de code. Une sorte de cerveau électronique miniaturisé.
Cette synergie entre matériel et logiciel pourrait mener à des IA bien plus rapides, mais surtout beaucoup moins énergivores. Et quand on sait que l’empreinte carbone des grands modèles d’IA explose, ce genre d’innovation tombe à pic.
SpikingBrain ouvre la voie à une IA plus proche du vivant, plus économe et plus intelligente
Alors, est-ce que SpikingBrain signe la fin de ChatGPT ? Pas si vite. Les LLM ont encore de beaux jours devant eux, surtout pour des usages généralistes. Mais cette nouvelle approche cérébrale change la donne. Elle montre qu’on peut faire plus avec moins, et surtout autrement.
Dans les années à venir, on pourrait bien voir des IA hybrides, mêlant SNN et LLM, matériel neuromorphique et puces classiques.
Un peu comme si on fusionnait les meilleurs éléments du vivant et de la machine. Bref, une IA qui ne copie plus seulement nos mots, mais notre manière de penser.