Déployé cette semaine sur ChatGPT et via des partenaires comme Microsoft, GPT-5 a rapidement agacé une partie de sa nombreuse base d’utilisateurs. En cause ?

  • Une simplification excessive : plus de choix du modèle. L’IA décidait seule lequel utiliser.
  • Des limites d’usage trop strictes : 80 messages/3h pour les abonnés Plus.
  • Et, surprise, un modèle jugé moins performant que promis.

L’équipe d’OpenAI en charge du développement du produit a donc pris les devants sur Reddit et a annoncé des modifications censées apaiser les aigreurs d’utilisateurs fidèles, mais désormais courroucés.

Retour des anciens modèles

Beaucoup d’abonnés Plus et Pro avaient jusqu’ici leurs préférences — GPT-4o, GPT-4.1 ou GPT-4.5 — jugés plus créatifs, plus « humains » et souvent meilleurs pour l’écriture. Or depuis l’arrivée de GPT-5, l’accès à ces LLM a tout simplement disparu de l’interface.

Face au tollé, OpenAI réintroduit donc la possibilité d’utiliser ces anciens modèles. Il suffira d’activer un paramètre dans ChatGPT.

A noter que la sélection manuelle de GPT-5, GPT-5 Pro ou GPT-5 Thinking sera également possible.

Des quotas assouplis

Autre geste d’apaisement : doublement des limites d’utilisation pour les abonnés Plus et Team. Et quand la limite de GPT-5 standard sera atteinte, passage automatique à GPT-5 mini ou Thinking mini.

Des performances discutables

La promesse de Sam Altman — « discuter avec GPT-5, c’est comme échanger avec un expert niveau doctorat » — en prend un sacré coup.

Les exemples embarrassants s’accumulent :

  • GPT-5 compte trois “b” dans blueberry au lieu de deux.
  • Il produit des portraits et dates erronés pour les présidents américains.

Surtout, en plus de la qualité des rendus, beaucoup trouvent GPT-5 froid et clinique, loin de la convivialité de GPT-4o.

Une leçon pour OpenAI

Le déploiement, qualifié de « plus chaotique que prévu » par Sam Altman, illustre un fait simple : la performance brute ne suffit pas.

Les utilisateurs tiennent à leurs habitudes… et à une IA qui leur ressemble.