{"id":286471,"date":"2025-07-31T10:29:09","date_gmt":"2025-07-31T10:29:09","guid":{"rendered":"https:\/\/www.europesays.com\/fr\/286471\/"},"modified":"2025-07-31T10:29:09","modified_gmt":"2025-07-31T10:29:09","slug":"cette-intelligence-artificielle-surpasse-les-modeles-actuels-en-etant-100-fois-plus-rapide","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/fr\/286471\/","title":{"rendered":"Cette intelligence artificielle surpasse les mod\u00e8les actuels en \u00e9tant 100\u00a0fois plus rapide"},"content":{"rendered":"<p class=\"ed__a-p ed__bdy__l\">Les grands mod\u00e8les de langage (LLM) contemporains abordent les probl\u00e8mes complexes principalement par le biais de la technique de la \u00ab\u00a0cha\u00eene de pens\u00e9e\u00a0\u00bb (Chain-of-Thought, CoT). Cette m\u00e9thode consiste \u00e0 d\u00e9composer un probl\u00e8me en \u00e9tapes interm\u00e9diaires sous forme de texte, for\u00e7ant le mod\u00e8le \u00e0 verbaliser son processus de r\u00e9flexion via des mots, alors qu&rsquo;il existerait une m\u00e9thode nettement plus rapide.<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Bien que cette approche ait am\u00e9lior\u00e9 les capacit\u00e9s de raisonnement des LLM, elle pr\u00e9sente certaines limites. Dans leur publication, les chercheurs de Sapient Intelligence qualifient la m\u00e9thode CoT de \u00ab\u00a0b\u00e9quille\u00a0\u00bb plut\u00f4t que de solution satisfaisante. Ils affirment que cette technique repose sur des d\u00e9compositions fragiles d\u00e9finies par l&rsquo;homme, o\u00f9 une seule erreur ou un mauvais ordonnancement des \u00e9tapes peut faire \u00e9chouer l&rsquo;ensemble du processus de raisonnement.<\/p>\n<p>            Publicit\u00e9, votre contenu continue ci-dessous<\/p>\n<p>        Publicit\u00e9<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Cette d\u00e9pendance \u00e0 la g\u00e9n\u00e9ration de langage explicite lie le raisonnement du mod\u00e8le au niveau des \u00ab\u00a0tokens\u00a0\u00bb, ce qui exige souvent de grandes quantit\u00e9s de donn\u00e9es d&rsquo;entra\u00eenement et produit des r\u00e9ponses longues et lentes, m\u00eame si l&rsquo;on a l&rsquo;impression que nos IA actuelles sont d\u00e9j\u00e0 tr\u00e8s rapides, on peut faire jusqu&rsquo;\u00e0 100 fois mieux selon ces chercheurs.<\/p>\n<p>Une approche hi\u00e9rarchique inspir\u00e9e du cerveau humain<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Pour d\u00e9passer les limites des IA actuelles, les chercheurs ont explor\u00e9 un nouveau concept de raisonnement qui s&rsquo;aligne davantage sur la pens\u00e9e humaine. Comme le note l&rsquo;\u00e9tude, \u00ab\u00a0le cerveau maintient des cha\u00eenes de raisonnement longues et coh\u00e9rentes avec une efficacit\u00e9 remarquable dans un espace latent, sans traduction constante vers le langage\u00a0\u00bb.<\/p>\n<p class=\"ed__a-p ed__bdy__l\">La mise en \u0153uvre d&rsquo;un tel raisonnement profond en IA est complexe. Les architectures r\u00e9currentes, alternatives, peuvent souffrir de \u00ab\u00a0convergence pr\u00e9coce\u00a0\u00bb (early convergence), o\u00f9 le mod\u00e8le adopte une solution trop rapidement, parfois pour plaire \u00e0 l&rsquo;utilisateur, mais o\u00f9 certaines r\u00e9ponses ne sont pas convaincantes. Qui n&rsquo;a jamais \u00e9mis une requ\u00eate \u00e0 ChatGPT avec une r\u00e9ponse de ce dernier totalement \u00e0 c\u00f4t\u00e9 de la plaque, juste pour r\u00e9pondre \u00e0 la question ?<\/p>\n<p>            Publicit\u00e9, votre contenu continue ci-dessous<\/p>\n<p>        Publicit\u00e9<\/p>\n<p class=\"ed__a-p ed__bdy__l\">L&rsquo;\u00e9quipe de Sapient s&rsquo;est tourn\u00e9e vers les neurosciences pour concevoir son Mod\u00e8le de Raisonnement Hi\u00e9rarchique (HRM). Le mod\u00e8le est dot\u00e9 de deux modules r\u00e9currents coupl\u00e9s :<\/p>\n<ul class=\"ed__lists ed__bdy__l\">\n<li>Un module de haut niveau (H) pour la planification lente et abstraite.<\/li>\n<li>Un module de bas niveau (L) pour les calculs rapides et d\u00e9taill\u00e9s.<\/li>\n<\/ul>\n<p class=\"ed__a-p ed__bdy__l\"><img loading=\"lazy\" decoding=\"async\" src=\"data:image\/svg+xml,%3Csvg xmlns='http:\/\/www.w3.org\/2000\/svg'%3E%3C\/svg%3E\" draggable=\"false\" width=\"778\" height=\"508\" class=\"ed__title-xxs\" alt=\"nouveau mod\u00e8le ia hrm\" style=\"background-color: #f2f2f2; aspect-ratio:778\/508;\"\/><\/p>\n<p>Le mod\u00e8le d&rsquo;IA HRM travaille comme le cerveau humain<\/p>\n<p>\u00a9 arXiv<\/p>\n<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Cette structure permet un processus que l&rsquo;\u00e9quipe nomme la \u00ab\u00a0convergence hi\u00e9rarchique\u00a0\u00bb. Le module rapide L traite une partie du probl\u00e8me jusqu&rsquo;\u00e0 atteindre une solution locale stable. Ensuite, le module lent H int\u00e8gre ce r\u00e9sultat, met \u00e0 jour sa strat\u00e9gie globale et assigne un nouveau sous-probl\u00e8me affin\u00e9 au module L. Ce m\u00e9canisme r\u00e9initialise le module L, l&#8217;emp\u00eachant de se bloquer et permettant au syst\u00e8me global d&rsquo;ex\u00e9cuter une longue s\u00e9quence d&rsquo;\u00e9tapes de raisonnement avec une architecture l\u00e9g\u00e8re qui ne souffre pas des probl\u00e8mes de convergence pr\u00e9coce.<\/p>\n<p class=\"ed__a-p ed__bdy__l\"><img loading=\"lazy\" decoding=\"async\" src=\"data:image\/svg+xml,%3Csvg xmlns='http:\/\/www.w3.org\/2000\/svg'%3E%3C\/svg%3E\" draggable=\"false\" width=\"1444\" height=\"364\" class=\"ed__title-xxs\" alt=\"nouveau mod\u00e8le ia hrm\" style=\"background-color: #f2f2f2; aspect-ratio:1444\/364;\"\/><\/p>\n<p>Le mod\u00e8le HRM face aux autres mod\u00e8les d&rsquo;IA LLM<\/p>\n<p>\u00a9 arXiv<\/p>\n<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Concernant l&rsquo;interpr\u00e9tabilit\u00e9, Guan Wang, fondateur et PDG de Sapient Intelligence, explique que les processus internes du HRM peuvent \u00eatre d\u00e9cod\u00e9s et visualis\u00e9s. Il ajoute que la transparence de la CoT peut \u00eatre trompeuse, citant des \u00e9tudes montrant que les mod\u00e8les peuvent parfois fournir des r\u00e9ponses correctes avec un raisonnement erron\u00e9, et inversement.<\/p>\n<p>Performances du HRM en action<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Pour \u00e9valuer leur mod\u00e8le, les chercheurs ont test\u00e9 le HRM sur des bancs d&rsquo;essai exigeant des capacit\u00e9s de recherche et de retour en arri\u00e8re importantes, comme le corpus ARC-AGI (Abstraction and Reasoning Corpus), des grilles de Sudoku de difficult\u00e9 extr\u00eame et des labyrinthes complexes.<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Les r\u00e9sultats indiquent que le HRM peut r\u00e9soudre des probl\u00e8mes qui sont hors de port\u00e9e pour les LLM avanc\u00e9s, m\u00eame de la prochaine version de <a href=\"https:\/\/www.lesnumeriques.com\/intelligence-artificielle\/sam-altman-bouleverse-par-gpt-5-il-n-y-a-plus-personne-pour-arreter-ca-n240382.html\" rel=\"nofollow noopener\" target=\"_blank\">GPT 5<\/a>. Sur les tests \u00ab\u00a0Sudoku-Extreme\u00a0\u00bb et \u00ab\u00a0Maze-Hard\u00a0\u00bb, les mod\u00e8les de pointe bas\u00e9s sur la CoT ont obtenu un score de 0% de r\u00e9ussite. En revanche, le HRM a atteint une pr\u00e9cision quasi parfaite apr\u00e8s un entra\u00eenement sur seulement 1000 exemples pour chaque t\u00e2che.<\/p>\n<p>            Publicit\u00e9, votre contenu continue ci-dessous<\/p>\n<p>        Publicit\u00e9<\/p>\n<p class=\"ed__a-p ed__bdy__l\"><img loading=\"lazy\" decoding=\"async\" src=\"data:image\/svg+xml,%3Csvg xmlns='http:\/\/www.w3.org\/2000\/svg'%3E%3C\/svg%3E\" draggable=\"false\" width=\"1328\" height=\"514\" class=\"ed__title-xxs\" alt=\"comparaison hrm vs mod\u00e8les ia llm chatgpt claude\" style=\"background-color: #f2f2f2; aspect-ratio:1328\/514;\"\/><\/p>\n<p>Comparaison des mod\u00e8les LLM face au mod\u00e8le HRM<\/p>\n<p>\u00a9 arXiv<\/p>\n<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Sur le banc d&rsquo;essai ARC-AGI, qui \u00e9value le raisonnement abstrait, le HRM de 27 millions de param\u00e8tres a obtenu un score de 40,3%. Cette performance d\u00e9passe celle de mod\u00e8les CoT beaucoup plus grands comme o3-mini-high (34,5%) et Claude 3.7 Sonnet (21,2%).<\/p>\n<p>Un changement \u00e0 venir pour les mod\u00e8les de langage ?<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Selon Guan Wang, si les LLM restent pertinents pour les t\u00e2ches linguistiques ou cr\u00e9atives, une architecture de type HRM offre des performances sup\u00e9rieures pour les \u00ab\u00a0t\u00e2ches complexes ou d\u00e9terministes\u00a0\u00bb, notamment les \u00ab\u00a0probl\u00e8mes s\u00e9quentiels n\u00e9cessitant une prise de d\u00e9cision complexe ou une planification \u00e0 long terme\u00a0\u00bb. Les domaines comme la robotique, l&rsquo;IA embarqu\u00e9e ou l&rsquo;exploration scientifique, o\u00f9 les donn\u00e9es sont rares et la latence est critique, sont des cas d&rsquo;usage pertinents, plus que des IA conversationnelles.<\/p>\n<p class=\"ed__a-p ed__bdy__l\">L&rsquo;efficacit\u00e9 de l&rsquo;architecture se traduit par des avantages concrets pour les entreprises. Le traitement parall\u00e8le du HRM pourrait permettre une \u00ab\u00a0r\u00e9duction de 100 fois du temps d&rsquo;accomplissement des t\u00e2ches\u00a0\u00bb par rapport aux IA actuelles. Cela signifie une latence d&rsquo;inf\u00e9rence plus faible et la capacit\u00e9 de faire fonctionner des syst\u00e8mes de raisonnement puissants sur des appareils en p\u00e9riph\u00e9rie.<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Les \u00e9conomies de co\u00fbts sont \u00e9galement notables. L&rsquo;entra\u00eenement du mod\u00e8le pour des t\u00e2ches comme la r\u00e9solution de Sudoku \u00e0 un niveau professionnel n\u00e9cessite environ deux heures de GPU, et pour le test ARC-AGI, entre 50 et 200 heures de GPU. C&rsquo;est une fraction des ressources n\u00e9cessaires pour les grands mod\u00e8les que nous connaissons aujourd&rsquo;hui.<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Sapient Intelligence travaille d\u00e9j\u00e0 \u00e0 faire \u00e9voluer le HRM vers un module de raisonnement plus g\u00e9n\u00e9raliste, avec des r\u00e9sultats pr\u00e9liminaires dans les domaines de la sant\u00e9, de la pr\u00e9vision climatique et de la robotique.Ces futurs mod\u00e8les int\u00e8greront \u00e9galement des fonctionnalit\u00e9s d&rsquo;auto-correction, afin de limiter fortement les erreurs.<\/p>\n<p>            Publicit\u00e9, votre contenu continue ci-dessous<\/p>\n<p>        Publicit\u00e9<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Envie de faire encore plus d&rsquo;\u00e9conomies ? D\u00e9couvrez <a href=\"https:\/\/www.lesnumeriques.com\/codes-promo.html\" rel=\"nofollow noopener\" target=\"_blank\">nos codes promo<\/a> s\u00e9lectionn\u00e9s pour vous.<\/p>\n","protected":false},"excerpt":{"rendered":"Les grands mod\u00e8les de langage (LLM) contemporains abordent les probl\u00e8mes complexes principalement par le biais de la technique&hellip;\n","protected":false},"author":2,"featured_media":286472,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[7],"tags":[1011,27,43,40,41,39,42,44],"class_list":{"0":"post-286471","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-sciences-et-technologies","8":"tag-fr","9":"tag-france","10":"tag-science","11":"tag-science-and-technology","12":"tag-sciences","13":"tag-sciences-et-technologies","14":"tag-technologies","15":"tag-technology"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@fr\/114947382646417170","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/posts\/286471","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/comments?post=286471"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/posts\/286471\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/media\/286472"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/media?parent=286471"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/categories?post=286471"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/tags?post=286471"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}