{"id":338486,"date":"2025-08-23T12:25:14","date_gmt":"2025-08-23T12:25:14","guid":{"rendered":"https:\/\/www.europesays.com\/fr\/338486\/"},"modified":"2025-08-23T12:25:14","modified_gmt":"2025-08-23T12:25:14","slug":"xiaomi-presente-son-ia-midashenglm-7b-un-seisme-dans-le-monde-des-assistants-vocaux","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/fr\/338486\/","title":{"rendered":"Xiaomi pr\u00e9sente son IA MiDashengLM-7B, un s\u00e9isme dans le monde des assistants vocaux"},"content":{"rendered":"<p class=\"ed__a-p ed__bdy__l\">Xiaomi, que l&rsquo;on conna\u00eet bien pour ses smartphones et ses montres connect\u00e9es notamment, se lance dans l&rsquo;IA. Le fabricant chinois a r\u00e9cemment annonc\u00e9 le lancement de MiDashengLM-7B, un mod\u00e8le d\u2019intelligence artificielle vocale open source innovant. Ce mod\u00e8le s\u2019inscrit dans une strat\u00e9gie ambitieuse visant \u00e0 d\u00e9mocratiser l\u2019acc\u00e8s \u00e0 des technologies d\u2019IA performantes, tout en garantissant la confidentialit\u00e9 et la s\u00e9curit\u00e9 des donn\u00e9es.<\/p>\n<p class=\"ed__a-p ed__bdy__l\">MiDashengLM-7B, avec un nom un peu complexe \u00e0 retenir, se distingue par une architecture dual-core unique, associant l\u2019encodeur audio Dasheng d\u00e9velopp\u00e9 par Xiaomi au mod\u00e8le Qwen2.5-Omni-7B d\u2019Alibaba, offrant ainsi une compr\u00e9hension audio avanc\u00e9e et polyvalente.<\/p>\n<p>            Publicit\u00e9, votre contenu continue ci-dessous<\/p>\n<p>        Publicit\u00e9<\/p>\n<p>Une architecture dual-core innovante pour une compr\u00e9hension audio avanc\u00e9e<\/p>\n<p class=\"ed__a-p ed__bdy__l\">L\u2019encodeur Dasheng, fruit de plusieurs g\u00e9n\u00e9rations d\u2019optimisation chez Xiaomi, est con\u00e7u pour capturer et interpr\u00e9ter une large gamme de signaux sonores, allant de la parole aux bruits ambiants et \u00e0 la musique. Cette capacit\u00e9 de compr\u00e9hension audio g\u00e9n\u00e9rale est rare dans l\u2019industrie, o\u00f9 <a href=\"https:\/\/www.lesnumeriques.com\/intelligence-artificielle\/gpt-5-son-report-est-officiel-mais-openai-prepare-deux-surprises-pour-chatgpt-n235243.html\" title=\"GPT-5 : son report est officiel, mais OpenAI pr\u00e9pare deux surprises pour ChatGPT\" rel=\"nofollow noopener\" target=\"_blank\">la plupart des mod\u00e8les<\/a> se concentrent sur un seul type de signal. Le d\u00e9codeur Qwen2.5-Omni-7B, quant \u00e0 lui, apporte une robustesse dans la g\u00e9n\u00e9ration et l\u2019interpr\u00e9tation du langage naturel, permettant une transcription et une analyse s\u00e9mantique fines.<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Cette architecture dual-core permet \u00e0 MiDashengLM-7B de traiter simultan\u00e9ment diff\u00e9rents types de sons, de reconna\u00eetre des \u00e9v\u00e9nements acoustiques complexes et de fournir des r\u00e9ponses contextuelles pr\u00e9cises. Par exemple, le mod\u00e8le peut identifier la source d\u2019une voix, l\u2019environnement d\u2019enregistrement, la langue utilis\u00e9e, mais aussi d\u00e9tecter des sons anormaux ou des signaux musicaux avec une grande pr\u00e9cision.<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Sur le plan des performances, MiDashengLM-7B a \u00e9tabli de nouveaux records sur 22 benchmarks publics d\u00e9di\u00e9s \u00e0 la compr\u00e9hension audio multimodale. La latence de traitement est r\u00e9duite \u00e0 un quart de celle des mod\u00e8les leaders du secteur, avec un retard du premier token (TTFT) significativement plus faible. Par ailleurs, l\u2019efficacit\u00e9 du d\u00e9bit de donn\u00e9es est multipli\u00e9e par plus de 20 fois compar\u00e9e aux mod\u00e8les concurrents, ce qui permet une gestion optimis\u00e9e des ressources GPU et une meilleure scalabilit\u00e9.<\/p>\n<p>            Publicit\u00e9, votre contenu continue ci-dessous<\/p>\n<p>        Publicit\u00e9<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Ces performances sont le fruit d\u2019une optimisation pouss\u00e9e de l\u2019architecture, incluant des m\u00e9canismes efficaces de d\u00e9codage et une gestion intelligente des ressources mat\u00e9rielles, rendant le mod\u00e8le adapt\u00e9 \u00e0 des d\u00e9ploiements embarqu\u00e9s et \u00e0 grande \u00e9chelle.<\/p>\n<p>Xiaomi met le focus sur la vie priv\u00e9e<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Xiaomi a con\u00e7u MiDashengLM-7B avec une forte attention port\u00e9e \u00e0 la confidentialit\u00e9 et \u00e0 la s\u00e9curit\u00e9 des donn\u00e9es. Contrairement \u00e0 de nombreux syst\u00e8mes d\u2019IA vocale qui reposent sur un traitement cloud centralis\u00e9, MiDashengLM-7B fonctionne en local sur les appareils des utilisateurs, limitant ainsi les risques li\u00e9s \u00e0 la transmission et au stockage des donn\u00e9es vocales.<\/p>\n<p class=\"ed__a-p ed__bdy__l\"><img loading=\"lazy\" decoding=\"async\" src=\"data:image\/svg+xml,%3Csvg xmlns='http:\/\/www.w3.org\/2000\/svg'%3E%3C\/svg%3E\" draggable=\"false\" width=\"1000\" height=\"562\" class=\"ed__title-xxs\" alt=\"MiDasheng IA Xiaomi\" style=\"background-color: #f2f2f2; aspect-ratio:1000\/562;\"\/><\/p>\n<p>Le mod\u00e8le est open-source<\/p>\n<p>\u00a9 LesNumeriques<\/p>\n<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Le mod\u00e8le convertit les sons captur\u00e9s en repr\u00e9sentations math\u00e9matiques irr\u00e9versibles, emp\u00eachant toute reconstruction ou exploitation malveillante des donn\u00e9es audio. Cette m\u00e9thode garantit que les informations vocales restent prot\u00e9g\u00e9es, tout en permettant une analyse efficace et en temps r\u00e9el.<\/p>\n<p class=\"ed__a-p ed__bdy__l\">La <a href=\"https:\/\/github.com\/xiaomi-research\/dasheng-lm\" target=\"_blank\" rel=\"nofollow noopener\">publication du mod\u00e8le sous licence Apache 2.0<\/a> renforce cette transparence. Elle permet ainsi \u00e0 la communaut\u00e9 de v\u00e9rifier, auditer et am\u00e9liorer le code source.<\/p>\n<p>Quels usages pour cette nouvelle IA ?<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Dans l\u2019automobile, le mod\u00e8le peut \u00eatre utilis\u00e9 pour des syst\u00e8mes de s\u00e9curit\u00e9 avanc\u00e9s, par exemple la d\u00e9tection en temps r\u00e9el de sons anormaux (comme le bris d\u2019une vitre ou une alarme), la reconnaissance vocale pour les commandes de navigation ou de divertissement, et la surveillance de l\u2019environnement sonore du v\u00e9hicule. Ces fonctionnalit\u00e9s am\u00e9liorent la s\u00e9curit\u00e9 passive et active, tout en offrant une exp\u00e9rience utilisateur plus intuitive.<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Dans la maison intelligente, MiDashengLM-7B permet des fonctionnalit\u00e9s telles que le r\u00e9veil avanc\u00e9 bas\u00e9 sur la d\u00e9tection de sons sp\u00e9cifiques, la surveillance continue des bruits anormaux (par exemple, une intrusion ou un incident domestique), et le contr\u00f4le gestuel ou vocal des appareils IoT. Le mod\u00e8le peut aussi contribuer \u00e0 des syst\u00e8mes de s\u00e9curit\u00e9 int\u00e9gr\u00e9s, combinant d\u00e9tection audio et vid\u00e9o.<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Enfin, dans les appareils audio personnels, comme les enceintes intelligentes ou les casques, MiDashengLM-7B am\u00e9liore la reconnaissance vocale, la transcription automatique, et l\u2019analyse musicale, offrant ainsi une exp\u00e9rience utilisateur plus riche et personnalis\u00e9e.<\/p>\n<p>MiDashengLM-7B bient\u00f4t dans nos maisons ?<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Il faudra toutefois attendre encore un peu avant de profiter de la nouvelle IA de Xiaomi dans nos maisons. En effet, le lancement s&rsquo;effectue d&rsquo;abord en Chine, avant un potentiel lancement mondial, dont nous n&rsquo;avons pas encore plus de d\u00e9tails \u00e0 l&rsquo;heure actuelle. Quoi qu&rsquo;il en soit, cette nouvelle IA pourrait \u00eatre lanc\u00e9e sur des enceintes connect\u00e9es de Xiaomi.<\/p>\n<p>            Publicit\u00e9, votre contenu continue ci-dessous<\/p>\n<p>        Publicit\u00e9<\/p>\n<p class=\"ed__a-p ed__bdy__l\">Envie de faire encore plus d&rsquo;\u00e9conomies ? D\u00e9couvrez <a href=\"https:\/\/www.lesnumeriques.com\/codes-promo.html\" rel=\"nofollow noopener\" target=\"_blank\">nos codes promo<\/a> s\u00e9lectionn\u00e9s pour vous.<\/p>\n","protected":false},"excerpt":{"rendered":"Xiaomi, que l&rsquo;on conna\u00eet bien pour ses smartphones et ses montres connect\u00e9es notamment, se lance dans l&rsquo;IA. Le&hellip;\n","protected":false},"author":2,"featured_media":338487,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[7],"tags":[1011,27,43,40,41,39,42,44],"class_list":{"0":"post-338486","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-sciences-et-technologies","8":"tag-fr","9":"tag-france","10":"tag-science","11":"tag-science-and-technology","12":"tag-sciences","13":"tag-sciences-et-technologies","14":"tag-technologies","15":"tag-technology"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@fr\/115078071860004943","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/posts\/338486","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/comments?post=338486"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/posts\/338486\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/media\/338487"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/media?parent=338486"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/categories?post=338486"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/tags?post=338486"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}