{"id":298664,"date":"2025-08-05T18:23:09","date_gmt":"2025-08-05T18:23:09","guid":{"rendered":"https:\/\/www.europesays.com\/fr\/298664\/"},"modified":"2025-08-05T18:23:09","modified_gmt":"2025-08-05T18:23:09","slug":"ses-premiers-modeles-open-weight-depuis-gpt-2","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/fr\/298664\/","title":{"rendered":"ses premiers mod\u00e8les \u00ab open-weight \u00bb depuis GPT-2"},"content":{"rendered":"\n<p>Le 5 ao\u00fbt 2025, OpenAI a annonc\u00e9 la mise \u00e0 disposition gratuite des mod\u00e8les gpt-oss-120b (117 Md de param\u00e8tres, MoE) et gpt-oss-20b (21 Md) sous licence Apache 2.0, rompant avec cinq ans de publications propri\u00e9taires et r\u00e9affirmant un engagement envers l\u2019open-source avanc\u00e9.<\/p>\n<p>Les poids complets peuvent \u00eatre t\u00e9l\u00e9charg\u00e9s sur Hugging Face ou clon\u00e9s depuis GitHub, et les deux mod\u00e8les sont d\u00e9j\u00e0 repris par les grands m\u00e9dias technologiques.<\/p>\n<p>     Architecture technique : l\u2019innovation par la parcimonie    <\/p>\n<p>Les mod\u00e8les gpt-oss reposent sur une architecture Transformer optimis\u00e9e int\u00e9grant la technologie Mixture-of-Experts (MoE), permettant une activation s\u00e9lective des param\u00e8tres pour maximiser l\u2019efficience computationnelle. Cette approche \u00ab\u00a0super sparse\u00a0\u00bb constitue une avanc\u00e9e majeure dans l\u2019optimisation des ressources.<\/p>\n<p><strong>GPT-OSS-120B<\/strong> totalise 117 milliards de param\u00e8tres mais n\u2019en active que 5.1 milliards par token gr\u00e2ce \u00e0 ses 128 experts r\u00e9partis sur 36 couches, dont seulement 4 sont actifs simultan\u00e9ment. Cette architecture permet au mod\u00e8le de fonctionner sur une seule GPU de 80 GB en quantification MXFP4, une prouesse technique remarquable pour un mod\u00e8le de cette envergure.<\/p>\n<p><strong>GPT-OSS-20B<\/strong> adopte une approche similaire avec 21 milliards de param\u00e8tres totaux et 3.6 milliards actifs par token, r\u00e9partis sur 24 couches avec 32 experts. Sa consommation m\u00e9moire de seulement 16 GB le rend accessible sur du mat\u00e9riel grand public, d\u00e9mocratisant l\u2019acc\u00e8s aux capacit\u00e9s de raisonnement avanc\u00e9.<\/p>\n<p>Les deux mod\u00e8les int\u00e8grent des innovations architecturales sophistiqu\u00e9es : attention altern\u00e9e dense et localement banded sparse (similaire \u00e0 GPT-3), grouped multi-query attention avec groupe de 8 pour l\u2019efficience m\u00e9moire, et Rotary Positional Embedding (RoPE) supportant nativement des contextes jusqu\u2019\u00e0 128k tokens.<\/p>\n<p>    Entra\u00eenement et alignement : les techniques d\u2019O4-mini appliqu\u00e9es \u00e0 l\u2019open source    <\/p>\n<p>Le processus de post-training repr\u00e9sente une innovation majeure, appliquant pour la premi\u00e8re fois les techniques des mod\u00e8les de raisonnement propri\u00e9taires \u00e0 des mod\u00e8les ouverts. OpenAI a utilis\u00e9 un processus en deux phases : supervised fine-tuning suivi d\u2019une phase de reinforcement learning \u00e0 haute intensit\u00e9 computationnelle, alignant les mod\u00e8les sur l\u2019OpenAI Model Spec.<\/p>\n<p>Une caract\u00e9ristique distinctive est l\u2019impl\u00e9mentation de trois niveaux d\u2019effort de raisonnement (low, medium, high) ajustables dynamiquement via le system prompt. Cette flexibilit\u00e9 permet d\u2019optimiser le compromis latence\/performance selon les besoins sp\u00e9cifiques de chaque application, une fonctionnalit\u00e9 jusqu\u2019alors r\u00e9serv\u00e9e aux API propri\u00e9taires.<\/p>\n<p>Le tokenizer o200k_harmony, \u00e9galement open-sourc\u00e9, repr\u00e9sente un superset du tokenizer utilis\u00e9 pour O4-mini et GPT-4o, garantissant une compatibilit\u00e9 maximale avec l\u2019\u00e9cosyst\u00e8me existant. Les donn\u00e9es d\u2019entra\u00eenement, principalement en anglais, ont \u00e9t\u00e9 soigneusement cur\u00e9es avec un focus sur STEM, programmation et connaissances g\u00e9n\u00e9rales.<\/p>\n<p>    Performances benchmarks : rivaliser avec les mod\u00e8les propri\u00e9taires    <\/p>\n<tr>BenchmarkGPT-OSS-120BGPT-OSS-20BOpenAI O3OpenAI O4-miniO3-mini<\/tr>\n<tr>\n<td><strong>MMLU<\/strong><\/td>\n<td>90.0%<\/td>\n<td>85.3%<\/td>\n<td>93.4%<\/td>\n<td>93.0%<\/td>\n<td>87.0%<\/td>\n<\/tr>\n<tr>\n<td><strong>GPQA Diamond<\/strong><\/td>\n<td>80.1%<\/td>\n<td>71.5%<\/td>\n<td>83.3%<\/td>\n<td>81.4%<\/td>\n<td>77.0%<\/td>\n<\/tr>\n<tr>\n<td><strong>Humanity\u2019s Last Exam<\/strong><\/td>\n<td>19.0%<\/td>\n<td>17.3%<\/td>\n<td>24.9%<\/td>\n<td>17.7%<\/td>\n<td>13.4%<\/td>\n<\/tr>\n<tr>\n<td><strong>AIME 2024<\/strong><\/td>\n<td>96.6%<\/td>\n<td>96.0%<\/td>\n<td>95.2%<\/td>\n<td>98.7%<\/td>\n<td>87.3%<\/td>\n<\/tr>\n<tr>\n<td><strong>AIME 2025<\/strong><\/td>\n<td>97.9%<\/td>\n<td>98.7%<\/td>\n<td>98.4%<\/td>\n<td>99.5%<\/td>\n<td>86.5%<\/td>\n<\/tr>\n<tr>\n<td><strong>Codeforces (Elo)<\/strong><\/td>\n<td>2622<\/td>\n<td>2463<\/td>\n<td>2516<\/td>\n<td>2230<\/td>\n<td>2706<\/td>\n<\/tr>\n<tr>\n<td><strong>HealthBench<\/strong><\/td>\n<td>57.6%<\/td>\n<td>42.5%<\/td>\n<td>59.8%<\/td>\n<td>50.1%<\/td>\n<td>37.8%<\/td>\n<\/tr>\n<tr>\n<td><strong>Tau-Bench Retail<\/strong><\/td>\n<td>67.8%<\/td>\n<td>54.8%<\/td>\n<td>70.4%<\/td>\n<td>65.6%<\/td>\n<td>\u2013<\/td>\n<\/tr>\n<p>Les r\u00e9sultats d\u00e9montrent des performances exceptionnelles, particuli\u00e8rement en math\u00e9matiques de comp\u00e9tition o\u00f9 GPT-OSS-20B surpasse m\u00eame O3 sur AIME 2025. Sur HealthBench, GPT-OSS-120B \u00e9tablit un nouveau standard pour les mod\u00e8les ouverts, d\u00e9passant significativement O4-mini et rivalisant avec O3.<\/p>\n<p>    Capacit\u00e9s agentiques et utilisation d\u2019outils    <\/p>\n<p>Les mod\u00e8les excellent dans les workflows agentiques, int\u00e9grant nativement la recherche web et l\u2019ex\u00e9cution de code Python dans leur processus de raisonnement. Les tests sur Tau-Bench d\u00e9montrent des capacit\u00e9s de function calling robustes, avec GPT-OSS-120B atteignant 67.8% de pr\u00e9cision sur les t\u00e2ches retail, comparable aux meilleurs mod\u00e8les propri\u00e9taires.<\/p>\n<p>Un exemple frappant : lors d\u2019une d\u00e9monstration, GPT-OSS-120B a encha\u00een\u00e9 28 appels cons\u00e9cutifs \u00e0 un outil de navigation web pour agr\u00e9ger des informations actualis\u00e9es, d\u00e9montrant une capacit\u00e9 d\u2019orchestration complexe jusqu\u2019alors in\u00e9dite dans un mod\u00e8le open-weight.<\/p>\n<p>    Chain-of-Thought transparent : une r\u00e9volution pour la recherche    <\/p>\n<p>Contrairement aux mod\u00e8les propri\u00e9taires qui masquent leur raisonnement interne, GPT-OSS expose int\u00e9gralement sa cha\u00eene de pens\u00e9e non supervis\u00e9e. Cette transparence, align\u00e9e sur les principes \u00e9tablis avec O1-preview, permet aux chercheurs et d\u00e9veloppeurs d\u2019impl\u00e9menter leurs propres syst\u00e8mes de monitoring pour d\u00e9tecter les comportements ind\u00e9sirables, les hallucinations ou les tentatives de contournement.<\/p>\n<p>OpenAI souligne explicitement que le CoT n\u2019a re\u00e7u aucune supervision directe, pr\u00e9servant ainsi sa valeur comme signal authentique du processus de raisonnement du mod\u00e8le. Cette approche contraste avec certains mod\u00e8les concurrents o\u00f9 le CoT est optimis\u00e9 pour l\u2019apparence plut\u00f4t que pour la fid\u00e9lit\u00e9 au processus r\u00e9el.<\/p>\n<p>    S\u00e9curit\u00e9 renforc\u00e9e : le paradigme du \u00ab\u00a0worst-case fine-tuning\u00a0\u00bb    <\/p>\n<p>OpenAI introduit une m\u00e9thodologie r\u00e9volutionnaire pour \u00e9valuer la s\u00e9curit\u00e9 des mod\u00e8les ouverts. L\u2019entreprise a d\u00e9lib\u00e9r\u00e9ment cr\u00e9\u00e9 des versions \u00ab\u00a0malicieusement fine-tun\u00e9es\u00a0\u00bb de GPT-OSS-120B, optimis\u00e9es pour des domaines sensibles (biologie, cybers\u00e9curit\u00e9) en utilisant son infrastructure d\u2019entra\u00eenement de pointe.<\/p>\n<p>Ces versions adversariales ont \u00e9t\u00e9 soumises au Preparedness Framework d\u2019OpenAI et \u00e9valu\u00e9es par trois groupes d\u2019experts ind\u00e9pendants. Les r\u00e9sultats confirment qu\u2019m\u00eame avec un fine-tuning hostile optimal, les mod\u00e8les n\u2019atteignent pas de capacit\u00e9s dangereuses de niveau \u00e9lev\u00e9 selon les crit\u00e8res \u00e9tablis.<\/p>\n<p>Le filtrage CBRN (Chemical, Biological, Radiological, Nuclear) durant le pr\u00e9-entra\u00eenement, combin\u00e9 \u00e0 l\u2019alignement d\u00e9lib\u00e9ratif et \u00e0 la hi\u00e9rarchie d\u2019instructions durant le post-training, \u00e9tablit un nouveau standard de s\u00e9curit\u00e9 pour les mod\u00e8les open-weight.<\/p>\n<p>    Red Teaming Challenge : 500 000$ pour la s\u00e9curit\u00e9 collective    <\/p>\n<p>OpenAI lance un d\u00e9fi de red teaming dot\u00e9 de 500 000$ pour identifier les vuln\u00e9rabilit\u00e9s potentielles des mod\u00e8les GPT-OSS. Cette initiative collaborative vise \u00e0 mobiliser la communaut\u00e9 mondiale des chercheurs en s\u00e9curit\u00e9 pour renforcer l\u2019\u00e9cosyst\u00e8me open source. Les d\u00e9couvertes valid\u00e9es seront publi\u00e9es et les datasets d\u2019\u00e9valuation open-sourc\u00e9s, b\u00e9n\u00e9ficiant \u00e0 l\u2019ensemble de l\u2019industrie.<\/p>\n<p>    \u00c9cosyst\u00e8me et disponibilit\u00e9 : une adoption facilit\u00e9e    <\/p>\n<p>Les mod\u00e8les sont imm\u00e9diatement disponibles sur Hugging Face avec quantification native MXFP4, accompagn\u00e9s d\u2019impl\u00e9mentations de r\u00e9f\u00e9rence pour PyTorch et Metal d\u2019Apple. Le harmony renderer, disponible en Python et Rust, facilite l\u2019adoption du format de prompt unifi\u00e9.<\/p>\n<p>Les partenariats pr\u00e9\u00e9tablis avec l\u2019\u00e9cosyst\u00e8me sont impressionnants :<\/p>\n<ul class=\"wp-block-list\">\n<li><strong>Plateformes de d\u00e9ploiement<\/strong> : Azure, AWS, Databricks, Vercel, Cloudflare<\/li>\n<li><strong>Fournisseurs d\u2019inf\u00e9rence<\/strong> : vLLM, Ollama, llama.cpp, LM Studio, Fireworks, Together AI<\/li>\n<li><strong>Hardware<\/strong> : NVIDIA, AMD, Cerebras, Groq pour des optimisations sp\u00e9cifiques<\/li>\n<\/ul>\n<p>Microsoft int\u00e8gre directement GPT-OSS-20B dans Windows via ONNX Runtime, accessible depuis Foundry Local et l\u2019AI Toolkit for VS Code, d\u00e9mocratisant l\u2019acc\u00e8s aux d\u00e9veloppeurs Windows.<\/p>\n<p>    Implications strat\u00e9giques : red\u00e9finir l\u2019\u00e9quilibre propri\u00e9taire\/open source    <\/p>\n<p>Cette release repr\u00e9sente un changement de paradigme pour OpenAI et l\u2019industrie. En rendant accessibles des capacit\u00e9s de raisonnement de pointe sous licence permissive, OpenAI :<\/p>\n<ol class=\"wp-block-list\">\n<li><strong>Acc\u00e9l\u00e8re la recherche acad\u00e9mique<\/strong> en fournissant des mod\u00e8les de r\u00e9f\u00e9rence transparents<\/li>\n<li><strong>D\u00e9mocratise l\u2019acc\u00e8s<\/strong> pour les march\u00e9s \u00e9mergents et organisations aux ressources limit\u00e9es<\/li>\n<li><strong>\u00c9tablit des rails d\u00e9mocratiques<\/strong> pour l\u2019IA en favorisant la distribution g\u00e9ographique des capacit\u00e9s<\/li>\n<li><strong>Cr\u00e9e une compl\u00e9mentarit\u00e9<\/strong> entre mod\u00e8les API (multimodaux, int\u00e9gr\u00e9s) et mod\u00e8les locaux (personnalisables, priv\u00e9s)<\/li>\n<\/ol>\n<p>    Perspectives et d\u00e9fis techniques    <\/p>\n<p>L\u2019impact r\u00e9el d\u00e9pendra de plusieurs facteurs critiques. La consommation \u00e9nerg\u00e9tique des mod\u00e8les MoE reste substantielle malgr\u00e9 les optimisations. La maintenance et les mises \u00e0 jour des mod\u00e8les open-weight posent des questions de gouvernance. L\u2019\u00e9quilibre entre transparence du CoT et risques de manipulation n\u00e9cessitera une vigilance continue.<\/p>\n<p>N\u00e9anmoins, cette initiative marque ind\u00e9niablement le d\u00e9but d\u2019une nouvelle \u00e8re. En combinant performances de pointe, transparence totale et standards de s\u00e9curit\u00e9 \u00e9lev\u00e9s, GPT-OSS \u00e9tablit un nouveau paradigme pour les mod\u00e8les linguistiques ouverts. La d\u00e9cision d\u2019OpenAI de partager non seulement les poids mais aussi les m\u00e9thodologies de s\u00e9curit\u00e9 et d\u2019alignement pourrait catalyser une nouvelle vague d\u2019innovation responsable dans l\u2019\u00e9cosyst\u00e8me IA global.<\/p>\n","protected":false},"excerpt":{"rendered":"Le 5 ao\u00fbt 2025, OpenAI a annonc\u00e9 la mise \u00e0 disposition gratuite des mod\u00e8les gpt-oss-120b (117 Md de&hellip;\n","protected":false},"author":2,"featured_media":298665,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[7],"tags":[1011,27,43,40,41,39,42,44],"class_list":{"0":"post-298664","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-sciences-et-technologies","8":"tag-fr","9":"tag-france","10":"tag-science","11":"tag-science-and-technology","12":"tag-sciences","13":"tag-sciences-et-technologies","14":"tag-technologies","15":"tag-technology"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@fr\/114977558094086365","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/posts\/298664","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/comments?post=298664"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/posts\/298664\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/media\/298665"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/media?parent=298664"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/categories?post=298664"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/tags?post=298664"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}