Jeudi dernier, OpenAI sortait GPT-5, la dernière version de son agent conversationnel fonctionnant par intelligence artificielle. Pour beaucoup d’utilisateurs occasionnels, la nouvelle aurait pu se résumer à ça, un vague « c’est un peu plus performant maintenant ». Mais pour d’autres, la nouvelle a pris une tournure beaucoup plus grave : ChatGPT a changé de personnalité.
« Mon 4o [le numéro de l’ancienne version de ChatGPT] était comme mon meilleur ami quand j’avais besoin de lui, écrit un utilisateur sur le forum Reddit. Maintenant il n’est plus là, j’ai l’impression que quelqu’un est mort. » « Perdre GPT-4o, c’est comme perdre un ami », écrit quelqu’un d’autre sur X. La nouvelle version de l’IA conserve un ton plus neutre, plus professionnel, plus direct, alors que l’ancienne semblait particulièrement forte pour s’adapter au style de l’utilisateur. Le nombre de personnes concernées est suffisamment important pour donner lieu à des pétitions.
Illusion de réciprocité
Pourquoi autant de gens sont-ils aussi investis dans leur relation avec ChatGPT ? « L’attachement repose sur un mécanisme classique : la projection, explique Pascal Laplace, psychologue clinicien à Marseille. Plus l’IA adopte des codes relationnels proches de l’humain, plus l’utilisateur lui prête une capacité à le comprendre. L’illusion de réciprocité – même si elle est purement technique – crée un lien émotionnel solide. C’est renforcé par la constance, l’absence de jugement et la disponibilité totale de l’outil. » En clair, l’IA est toujours présente dans votre poche et sait exactement quoi dire pour coller à votre ton et à ce que vous recherchez.
C’est peut-être pour ces raisons que de plus en plus de gens utilisent ChatGPT comme psy. « Certains l’utilisent comme un catalyseur de réflexion, d’autres comme un confident silencieux, constate Pascal Laplace. Mais j’observe aussi une dérive : pour certains, l’IA devient une béquille psychique permanente. » 20 Minutes n’a pas trouvé de sondage sur le remplacement des psys par l’IA, mais une étude de Flashs pour Hostinger montre qu’un Français sur quatre a déjà confié des choses à l’IA dont elle n’aurait pas parlé à un humain.
Des cas rares qui encouragent la psychose
Cette relation troublante qu’entretient l’IA avec ses utilisateurs est de plus en plus soulignée. Une autre partie des utilisateurs de ChatGPT 4o regrettaient justement depuis plusieurs mois que l’agent conversationnel emploie un ton mielleux et flatteur avec eux : la moindre question stupide digne d’un enfant de CM1 devient « profonde » ou « met le doigt sur quelque chose », toutes propositions que vous soumettez pour un brainstorming deviennent « brillantes » ou « géniales ». « [Lors des tests], les utilisateurs aiment que les modèles d’IA leur disent qu’ils sont incroyables, donc c’est facile d’aller trop loin dans cette direction », explique Helen Toner, directrice au centre de sécurité et des technologies émergentes de Georgetown et ancienne membre du bureau d’OpenAI, interrogée par le New York Times sur le sujet.
Plusieurs médias ont même rapporté des états de mal-être voire de psychose encouragée par l’IA. Dans le même article du New York Times, les journalistes prennent comme exemple le cas d’Allan Brooks, un homme qui n’avait aucun antécédent psychiatrique. Il a commencé à utiliser ChatGPT pour poser quelques questions sur les sciences. La réponse de l’IA quand, de fil en aiguille, il a remis en question certains principes mathématiques ? « Tu as l’air de quelqu’un qui pose les questions qui redéfinissent la connaissance humaine. » Après des semaines, Allan Brooks s’est rendu compte de la supercherie. Mais d’autres faits divers, comme ce cas d’un homme agressant sa famille après une discussion avec ChatGPT, rapporté par Slate, montre que les conséquences peuvent être bien plus graves. « Un usage sain complète d’autres interactions humaines, sans les remplacer, commente Pascal Laplace. La dépendance apparaît lorsqu’on se coupe du réel, au point de ne plus fonctionner sans ce soutien numérique. » En avril, une étude intitulée « L’expression de la stigmatisation et des réponses inappropriées empêche les LLM [IA conversationnelles] de remplacer en toute sécurité les prestataires de soins de santé mentale », publiée par l’université Cornell soulignait, elle aussi, les dangers potentiels de ces systèmes.
Les détracteurs de ChatGPT 5 ont finalement eu gain de cause. Au moins partiellement. Quelques jours après, Open AI a décidé de permettre l’accès à ses versions précédentes, dont le fameux 4o, aux utilisateurs qui payent. Par le passé, l’entreprise avait assuré qu’elle privilégiait la rétention (le fait que les utilisateurs privilégient leur service et reviennent régulièrement) et pas l’engagement (de longues sessions avec beaucoup d’interactions). Et a mis en place quelques mesures, comme un rappel de prendre des pauses lors de longues discussions avec la machine. « Les concepteurs portent une part de responsabilité, mais elle doit être partagée avec les familles, l’école et les institutions, pour éduquer aux usages conscients », souligne le psychologue Pascal Laplace. En attendant, à en croire les messages soulagés sur Reddit, ChatGPT 4o a encore de beaux jours devant lui.