Déployé cette semaine sur ChatGPT et via des partenaires comme Microsoft, GPT-5 a rapidement agacé une partie de sa nombreuse base d’utilisateurs. En cause ?
- Une simplification excessive : plus de choix du modèle. L’IA décidait seule lequel utiliser.
- Des limites d’usage trop strictes : 80 messages/3h pour les abonnés Plus.
- Et, surprise, un modèle jugé moins performant que promis.
L’équipe d’OpenAI en charge du développement du produit a donc pris les devants sur Reddit et a annoncé des modifications censées apaiser les aigreurs d’utilisateurs fidèles, mais désormais courroucés.
Retour des anciens modèles
Beaucoup d’abonnés Plus et Pro avaient jusqu’ici leurs préférences — GPT-4o, GPT-4.1 ou GPT-4.5 — jugés plus créatifs, plus « humains » et souvent meilleurs pour l’écriture. Or depuis l’arrivée de GPT-5, l’accès à ces LLM a tout simplement disparu de l’interface.
Face au tollé, OpenAI réintroduit donc la possibilité d’utiliser ces anciens modèles. Il suffira d’activer un paramètre dans ChatGPT.
A noter que la sélection manuelle de GPT-5, GPT-5 Pro ou GPT-5 Thinking sera également possible.
Des quotas assouplis
Autre geste d’apaisement : doublement des limites d’utilisation pour les abonnés Plus et Team. Et quand la limite de GPT-5 standard sera atteinte, passage automatique à GPT-5 mini ou Thinking mini.
Des performances discutables
La promesse de Sam Altman — « discuter avec GPT-5, c’est comme échanger avec un expert niveau doctorat » — en prend un sacré coup.
Les exemples embarrassants s’accumulent :
- GPT-5 compte trois “b” dans blueberry au lieu de deux.
- Il produit des portraits et dates erronés pour les présidents américains.
Surtout, en plus de la qualité des rendus, beaucoup trouvent GPT-5 froid et clinique, loin de la convivialité de GPT-4o.
Une leçon pour OpenAI
Le déploiement, qualifié de « plus chaotique que prévu » par Sam Altman, illustre un fait simple : la performance brute ne suffit pas.
Les utilisateurs tiennent à leurs habitudes… et à une IA qui leur ressemble.