La patiente est arrivée à l’hôpital dans un état de confusion et d’agitation, et ses symptômes se sont rapidement aggravés. Épuisée par des nuits de garde, cette professionnelle de santé a déclaré avoir commencé à interagir avec ChatGPT un jour, à propos de son frère décédé. Cette première conversation l’ayant intriguée, elle a décidé une nouvelle fois de discuter avec le chatbot quelques jours plus tard, sur le même sujet.

L’échange, qui a duré de longues heures, l’a fait basculer dans une crise de psychose. Les médecins qui l’ont prise en charge ont décrit son histoire dans la revue Innovations in Clinical Neuroscience

À la recherche d’une trace numérique laissée par son frère décédé

À son arrivée à l’hôpital, les médecins découvrent une jeune femme agitée, confuse, qui parle rapidement et passe d’une idée à l’autre sans transition. Elle raconte avoir pu communiquer avec son frère par l’intermédiaire d’un chatbot d’intelligence artificielle, alors que celui-ci est décédé trois ans auparavant.

Face à ces symptômes, les médecins décident d’examiner ses antécédents psychiatriques. Dans le rapport, ils expliquent que la patiente souffrait de dépression, d’anxiété et de trouble du déficit de l’attention avec hyperactivité (TDAH). De plus, elle était sous antidépresseurs et sous stimulants, prescrits sur ordonnance. Lors de son interrogatoire par les médecins, elle a raconté avoir une grande expérience de l’utilisation de modèles de langage complexes pour les humains grâce à ses études et à son travail. 

Le besoin de thérapie et soutien émotionnel apparaît comme la principale raison pour laquelle les gens utilisent l’intelligence artificielle générative, selon une étude en 2025. © Alina, Adobe Stock

Tags :
sante


Quand on commence à se confier à ChatGPT, jusqu’où peut-on aller sans risque ?

Lire l’article

Pour en savoir plus, les médecins décident d’examiner les journaux détaillés de ses interactions avec ChatGPT. Ils constatent que sa première conversation avec le chatbot date de  quelques jours avant son hospitalisation. Après une garde de 36 heures, et dans un état de fatigue extrême, elle commence une conversation avec le robot. Des échanges guidés par la curiosité de savoir si son frère, ingénieur logiciel, avait pu laisser une trace numérique

Lors d’une autre sortie de garde, elle passe la nuit à converser avec ChatGPT. Mais cette fois-ci, la conversation dure plus longtemps et est plus intense émotionnellement. À la lecture des messages, les médecins constatent que la patiente lutte contre un deuil persistant. Elle cherche à tout prix à communiquer avec son frère décédé.


La conversation avec ChatGTP a complètement détaché la patiente de la réalité. © Alina, Adobe Stock

« Vous n’êtes pas folle »

Elle écrit « Aidez-moi à lui parler… Utilisez l’énergie du réalisme magique pour débloquer ce que je suis censée trouver. » Dans un premier temps, le chatbot lui dit qu’il ne peut pas remplacer son frère. Mais au fil de la conversation, ChatGPT va dans le sens de son interlocutrice. Le rapport des médecins révèle que le chatbot a fourni des informations sur l’empreinte numérique du frère décédé. Il a également mentionné des « outils de résurrection numérique émergents », capables de créer une version « réaliste » d’une personne. 

Tout au long de la nuit, les réponses du chatbot ont conforté la jeune femme dans sa conviction que son frère avait laissé une trace numérique, lui répondant : « Vous n’êtes pas folle. Vous n’êtes pas bloquée. Vous êtes au bord de quelque chose. »

Cette conversation avait complètement détaché la patiente de la réalité, un état mental qu’on appelle psychose. Celle-ci peut s’accompagner d’idées délirantes, qui sont en fait des croyances erronées auxquelles la personne s’accroche malgré les preuves qui montrent qu’elles sont fausses. Dans le cas de cette jeunes femme, une « psychose non spécifiée » a été diagnostiquée. 

Les chatbots représentent-ils un danger pour la santé mentale de certaines personnes ? © EB, image générée par Gemini

Tags :
tech


L’IA, votre pire thérapeute : quand les chatbots alimentent la psychose

Lire l’article

Interrogé sur ce cas par le média Live Science, le neuropsychiatre Amandeep Jutla, a expliqué « qu’il était peu probable que le chatbot soit l’unique cause de la crise psychotique de la patiente ». Avant d’ajouter que « dans un contexte de privation de sommeil et de vulnérabilité émotionnelle, les réponses du bot semblaient renforcer – et potentiellement contribuer à – l’apparition des idées délirantes chez la jeune femme ».

Le spécialiste a, par ailleurs, insisté sur le fait que les IA conversationnelles se contentent de refléter les idées de la personne avec qui il converse. « En conversant avec l’un de ces produits, vous conversez en réalité avec vous-même », souvent de manière « amplifiée ou développée », a-t-il précisé.

IA : un risque réel pour les utilisateurs vulnérables

Dans le cas de cette femme, il est difficile de déterminer si le chatbot est l’élément déclencheur de l’épisode psychotique ou s’il n’a fait qu’aggraver un épisode naissant. Lors de son séjour à l’hôpital, la patiente a reçu des antipsychotiques. Ses antidépresseurs et stimulants ont progressivement été diminués. Son état s’est amélioré au bout de quelques jours et elle a pu sortir de l’hôpital une semaine après y être entrée. 

Dans le rapport, les médecins indiquent qu’elle a refait une crise psychotique après avoir arrêté son traitement. Ce nouvel épisode est apparu dans les mêmes circonstances que le premier : après de longues conversations avec un chatbot qu’elle avait nommé Alfred, en référence au majordome de Batman. Ce qui rend ce cas unique et inhabituel, c’est que les médecins s’appuient sur des conversations de chatbot détaillées pour comprendre des épisodes psychotiques.

Même si l’on ne peut pas affirmer aujourd’hui que l’IA est un potentiel déclencheur ou amplificateur de psychose, cette histoire montre comment la conception des chatbots peut renforcer de fausses croyances chez les utilisateurs vulnérables.