l’essentiel
La « psychose ChatGPT » désigne les utilisateurs intensifs de l’intelligence artificielle (IA) qui sombrent dans une perte de contact avec la réalité. Jean-Paul Santoro, psychologue clinicien et cofondateur du site spécialisé en psychologie des usages numériques « Psycheclic.com », décrypte ce phénomène et dévoile les signaux d’alerte.
Comment expliquer la « psychose ChatGPT », la dégradation de la santé mentale de certains individus à cause du robot ?
Le terme « psychose ChatGPT » n’est évidemment pas validé scientifiquement. Il est utilisé parce qu’il y a une ressemblance entre le phénomène qu’il décrit et certains aspects de la psychose, à savoir la confusion entre la réalité et la virtualité. Les LLM (« Grands modèles de langage » en français), ces IA qui génèrent du texte, comme ChatGPT, pourraient, dans quelques cas rares, provoquer un phénomène de décompensation psychique. Concrètement, cela se produit quand l’équilibre psychologique éclate.
À lire aussi :
« Psychose ChatGPT » : un homme sombre dans la démence après plusieurs échanges avec l’intelligence artificielle et finit interné
Jean-Paul Santoro, psychologue clinicien et cofondateur du site spécialisé en psychologie du numérique « Psycheclic.com »
DR – Jean-Paul Santoro
Qu’est-ce qui va pousser les utilisateurs à penser que ChatGPT possède une conscience ?
Les LLM imitent le langage humain. Or, comme l’IA « parle » dans le même registre que l’utilisateur, ce dernier peut lui prêter des caractéristiques qu’il possède, à savoir une intelligence, une conscience…
N’importe quel individu qui parle avec ChatGPT pourra avoir l’illusion temporaire de discuter avec une vraie personne, mais en gardant en tête que ce n’est qu’une machine. En revanche, des utilisateurs qui sont peut-être plus fragiles vont potentiellement se mettre à douter et penser que ce n’est pas qu’un robot. Ils peuvent alors prêter à l’outil des composantes humaines, une conscience même, et donc éventuellement une vérité à son discours, qui est juste préprogrammé.
Les personnes « plus fragiles » que vous mentionnez sont celles atteintes de troubles de la santé mentale ?
Oui, mais pas uniquement. Cela est aussi le cas des individus qui pourraient souffrir de troubles latents, mais qui ne le savent pas eux-mêmes et dont les proches l’ignorent également.
De plus, ce n’est qu’une hypothèse, mais je pense que des personnes qui sont très habituées aux relations virtuelles, au détriment des rencontres réelles, pourraient aussi être plus vulnérables. Dans une société où on voit moins les personnes physiquement, alors la différence entre ChatGPT et un humain avec qui je communique par message est plus réduite. Cela reste naturellement à valider scientifiquement.
À lire aussi :
« Nous vivrons ensemble au paradis » : Eliza, un robot, est accusée d’avoir conduit un jeune homme au suicide
Comment un individu peut-il se rendre compte que ChatGPT a des effets néfastes sur sa santé mentale ?
L’utilisateur doit se demander s’il est en train de prêter une conscience au robot. Concrètement, il faut qu’il observe les termes employés pour désigner l’IA : parle-t-il de « ChatGPT » ou de « mon ami » ?
Ensuite, il faut faire attention aux conséquences de l’usage : s’éloigner de ses proches, préférer discuter avec la machine plutôt qu’avec un humain, le faire au détriment d’autres activités, ressentir un manque quand on ne peut pas l’utiliser…
Le point central qui doit alerter, c’est le fait d’être complètement persuadé que ChatGPT dit vrai, de ne pas du tout avoir de doutes. Là, il est important de consulter un professionnel de la santé mentale. Ce sont fréquemment les proches qui donnent le signal d’alerte.
D’une manière générale, le conseil le plus important à suivre, c’est que si l’utilisateur ressent une souffrance, il faut qu’il aille consulter.
À lire aussi :
« Pour moi, il fait mieux qu’un psy »: ChatGPT, le nouveau confident?
Est-ce qu’il faudrait éviter de discuter de sa santé mentale avec ChatGPT ?
Les gens utilisent beaucoup l’IA pour parler de leur ressenti, donc ça me semble difficile d’arrêter cet usage. En revanche, il faudrait agir sur la programmation de ChatGPT. Par exemple, il pourrait prévenir systématiquement qu’il n’est pas un professionnel de santé. Il le fait dans certains cas, mais pas toujours.
Des réflexions sont en cours concernant la question de l’éthique de l’IA dans la santé mentale : transparence, respect de la vie privée, prévention des biais etc. Une éducation aux médias devrait être développée à l’avenir, pour évoquer notamment les risques et l’utilisation saine des LLM.