Le 5 août 2025, OpenAI a annoncé la mise à disposition gratuite des modèles gpt-oss-120b (117 Md de paramètres, MoE) et gpt-oss-20b (21 Md) sous licence Apache 2.0, rompant avec cinq ans de publications propriétaires et réaffirmant un engagement envers l’open-source avancé.

Les poids complets peuvent être téléchargés sur Hugging Face ou clonés depuis GitHub, et les deux modèles sont déjà repris par les grands médias technologiques.

Architecture technique : l’innovation par la parcimonie

Les modèles gpt-oss reposent sur une architecture Transformer optimisée intégrant la technologie Mixture-of-Experts (MoE), permettant une activation sélective des paramètres pour maximiser l’efficience computationnelle. Cette approche « super sparse » constitue une avancée majeure dans l’optimisation des ressources.

GPT-OSS-120B totalise 117 milliards de paramètres mais n’en active que 5.1 milliards par token grâce à ses 128 experts répartis sur 36 couches, dont seulement 4 sont actifs simultanément. Cette architecture permet au modèle de fonctionner sur une seule GPU de 80 GB en quantification MXFP4, une prouesse technique remarquable pour un modèle de cette envergure.

GPT-OSS-20B adopte une approche similaire avec 21 milliards de paramètres totaux et 3.6 milliards actifs par token, répartis sur 24 couches avec 32 experts. Sa consommation mémoire de seulement 16 GB le rend accessible sur du matériel grand public, démocratisant l’accès aux capacités de raisonnement avancé.

Les deux modèles intègrent des innovations architecturales sophistiquées : attention alternée dense et localement banded sparse (similaire à GPT-3), grouped multi-query attention avec groupe de 8 pour l’efficience mémoire, et Rotary Positional Embedding (RoPE) supportant nativement des contextes jusqu’à 128k tokens.

Entraînement et alignement : les techniques d’O4-mini appliquées à l’open source

Le processus de post-training représente une innovation majeure, appliquant pour la première fois les techniques des modèles de raisonnement propriétaires à des modèles ouverts. OpenAI a utilisé un processus en deux phases : supervised fine-tuning suivi d’une phase de reinforcement learning à haute intensité computationnelle, alignant les modèles sur l’OpenAI Model Spec.

Une caractéristique distinctive est l’implémentation de trois niveaux d’effort de raisonnement (low, medium, high) ajustables dynamiquement via le system prompt. Cette flexibilité permet d’optimiser le compromis latence/performance selon les besoins spécifiques de chaque application, une fonctionnalité jusqu’alors réservée aux API propriétaires.

Le tokenizer o200k_harmony, également open-sourcé, représente un superset du tokenizer utilisé pour O4-mini et GPT-4o, garantissant une compatibilité maximale avec l’écosystème existant. Les données d’entraînement, principalement en anglais, ont été soigneusement curées avec un focus sur STEM, programmation et connaissances générales.

Performances benchmarks : rivaliser avec les modèles propriétaires

BenchmarkGPT-OSS-120BGPT-OSS-20BOpenAI O3OpenAI O4-miniO3-mini MMLU 90.0% 85.3% 93.4% 93.0% 87.0% GPQA Diamond 80.1% 71.5% 83.3% 81.4% 77.0% Humanity’s Last Exam 19.0% 17.3% 24.9% 17.7% 13.4% AIME 2024 96.6% 96.0% 95.2% 98.7% 87.3% AIME 2025 97.9% 98.7% 98.4% 99.5% 86.5% Codeforces (Elo) 2622 2463 2516 2230 2706 HealthBench 57.6% 42.5% 59.8% 50.1% 37.8% Tau-Bench Retail 67.8% 54.8% 70.4% 65.6% –

Les résultats démontrent des performances exceptionnelles, particulièrement en mathématiques de compétition où GPT-OSS-20B surpasse même O3 sur AIME 2025. Sur HealthBench, GPT-OSS-120B établit un nouveau standard pour les modèles ouverts, dépassant significativement O4-mini et rivalisant avec O3.

Capacités agentiques et utilisation d’outils

Les modèles excellent dans les workflows agentiques, intégrant nativement la recherche web et l’exécution de code Python dans leur processus de raisonnement. Les tests sur Tau-Bench démontrent des capacités de function calling robustes, avec GPT-OSS-120B atteignant 67.8% de précision sur les tâches retail, comparable aux meilleurs modèles propriétaires.

Un exemple frappant : lors d’une démonstration, GPT-OSS-120B a enchaîné 28 appels consécutifs à un outil de navigation web pour agréger des informations actualisées, démontrant une capacité d’orchestration complexe jusqu’alors inédite dans un modèle open-weight.

Chain-of-Thought transparent : une révolution pour la recherche

Contrairement aux modèles propriétaires qui masquent leur raisonnement interne, GPT-OSS expose intégralement sa chaîne de pensée non supervisée. Cette transparence, alignée sur les principes établis avec O1-preview, permet aux chercheurs et développeurs d’implémenter leurs propres systèmes de monitoring pour détecter les comportements indésirables, les hallucinations ou les tentatives de contournement.

OpenAI souligne explicitement que le CoT n’a reçu aucune supervision directe, préservant ainsi sa valeur comme signal authentique du processus de raisonnement du modèle. Cette approche contraste avec certains modèles concurrents où le CoT est optimisé pour l’apparence plutôt que pour la fidélité au processus réel.

Sécurité renforcée : le paradigme du « worst-case fine-tuning »

OpenAI introduit une méthodologie révolutionnaire pour évaluer la sécurité des modèles ouverts. L’entreprise a délibérément créé des versions « malicieusement fine-tunées » de GPT-OSS-120B, optimisées pour des domaines sensibles (biologie, cybersécurité) en utilisant son infrastructure d’entraînement de pointe.

Ces versions adversariales ont été soumises au Preparedness Framework d’OpenAI et évaluées par trois groupes d’experts indépendants. Les résultats confirment qu’même avec un fine-tuning hostile optimal, les modèles n’atteignent pas de capacités dangereuses de niveau élevé selon les critères établis.

Le filtrage CBRN (Chemical, Biological, Radiological, Nuclear) durant le pré-entraînement, combiné à l’alignement délibératif et à la hiérarchie d’instructions durant le post-training, établit un nouveau standard de sécurité pour les modèles open-weight.

Red Teaming Challenge : 500 000$ pour la sécurité collective

OpenAI lance un défi de red teaming doté de 500 000$ pour identifier les vulnérabilités potentielles des modèles GPT-OSS. Cette initiative collaborative vise à mobiliser la communauté mondiale des chercheurs en sécurité pour renforcer l’écosystème open source. Les découvertes validées seront publiées et les datasets d’évaluation open-sourcés, bénéficiant à l’ensemble de l’industrie.

Écosystème et disponibilité : une adoption facilitée

Les modèles sont immédiatement disponibles sur Hugging Face avec quantification native MXFP4, accompagnés d’implémentations de référence pour PyTorch et Metal d’Apple. Le harmony renderer, disponible en Python et Rust, facilite l’adoption du format de prompt unifié.

Les partenariats préétablis avec l’écosystème sont impressionnants :

  • Plateformes de déploiement : Azure, AWS, Databricks, Vercel, Cloudflare
  • Fournisseurs d’inférence : vLLM, Ollama, llama.cpp, LM Studio, Fireworks, Together AI
  • Hardware : NVIDIA, AMD, Cerebras, Groq pour des optimisations spécifiques

Microsoft intègre directement GPT-OSS-20B dans Windows via ONNX Runtime, accessible depuis Foundry Local et l’AI Toolkit for VS Code, démocratisant l’accès aux développeurs Windows.

Implications stratégiques : redéfinir l’équilibre propriétaire/open source

Cette release représente un changement de paradigme pour OpenAI et l’industrie. En rendant accessibles des capacités de raisonnement de pointe sous licence permissive, OpenAI :

  1. Accélère la recherche académique en fournissant des modèles de référence transparents
  2. Démocratise l’accès pour les marchés émergents et organisations aux ressources limitées
  3. Établit des rails démocratiques pour l’IA en favorisant la distribution géographique des capacités
  4. Crée une complémentarité entre modèles API (multimodaux, intégrés) et modèles locaux (personnalisables, privés)

Perspectives et défis techniques

L’impact réel dépendra de plusieurs facteurs critiques. La consommation énergétique des modèles MoE reste substantielle malgré les optimisations. La maintenance et les mises à jour des modèles open-weight posent des questions de gouvernance. L’équilibre entre transparence du CoT et risques de manipulation nécessitera une vigilance continue.

Néanmoins, cette initiative marque indéniablement le début d’une nouvelle ère. En combinant performances de pointe, transparence totale et standards de sécurité élevés, GPT-OSS établit un nouveau paradigme pour les modèles linguistiques ouverts. La décision d’OpenAI de partager non seulement les poids mais aussi les méthodologies de sécurité et d’alignement pourrait catalyser une nouvelle vague d’innovation responsable dans l’écosystème IA global.