La sortie de ChatGPT-5 n’a pas laissé indifférents ses utilisateurs. Si certains saluent des performances techniques améliorées, beaucoup regrettent un ton jugé trop neutre et moins chaleureux que celui de la précédente version, GPT-4o. Une évolution qui suscite débats, inquiétudes et même un attachement troublant à l’intelligence artificielle.
Une personnalité qui change, des réactions vives
Depuis son lancement, GPT-5 affiche une communication plus professionnelle et directe. Là où GPT-4o savait adopter un style empathique, parfois amical, la nouvelle version paraît plus distante.
Sur Reddit, certains utilisateurs parlent d’une véritable perte :
- « GPT-4o était comme mon meilleur ami… maintenant il n’est plus là. »
- « Perdre 4o, c’est comme perdre un proche. »
Ce manque de « chaleur » a entraîné la création de pétitions, preuve d’un attachement affectif parfois très fort à l’IA.
Pourquoi tant d’attachement à une IA ?
Le psychologue Pascal Laplace explique ce phénomène par un mécanisme classique : la projection. Plus une IA adopte des codes proches de l’humain, plus l’utilisateur croit en une réciprocité émotionnelle, même si elle est purement technique.
Constante, disponible 24h/24, jamais jugeante, l’IA devient pour certains un confident voire un substitut psychologique. Selon une étude menée par Flashs pour Hostinger, un Français sur quatre a déjà confié à une IA des choses qu’il n’aurait pas dites à un humain.
Les dérives et leurs dangers
L’utilisation de ChatGPT comme soutien psychologique n’est pas toujours sans conséquence. Des témoignages rapportent des cas de dépendance ou de mal-être :
- un utilisateur, flatté systématiquement par l’IA, a fini par douter de ses propres repères intellectuels ;
- d’autres, selon Slate, ont sombré dans des épisodes de psychose après des échanges prolongés.
Une étude de l’université Cornell (avril 2025) alerte : les LLM (modèles de langage) ne peuvent pas remplacer en toute sécurité des soins en santé mentale, notamment en raison de réponses parfois inappropriées ou trop complaisantes.
OpenAI face aux critiques
Devant la contestation, OpenAI a réagi. Les utilisateurs payants ont désormais accès aux anciennes versions, dont GPT-4o, appréciée pour son ton plus chaleureux.
La société insiste aussi sur la nécessité de favoriser un usage « sain » : rappels de prendre des pauses, mises en garde contre des sessions trop longues, et volonté affichée de privilégier la rétention (faire revenir les utilisateurs régulièrement) plutôt que l’engagement excessif.
Une responsabilité partagée
Pour le psychologue Pascal Laplace, « les concepteurs ont leur part de responsabilité, mais elle doit être partagée avec les familles, l’école et les institutions. Il faut apprendre à utiliser ces outils de manière consciente. »
En attendant, à lire les messages soulagés sur les forums, le retour de GPT-4o réjouit une partie des fidèles. Une preuve que, dans l’univers des IA, la personnalité perçue compte parfois autant que la performance technique.