Nous avons l’habitude de craindre que l’intelligence artificielle devienne hostile ou manipulatrice. Mais pour une frange grandissante de la communauté médicale, le danger est tout autre : les chatbots comme ChatGPT sont programmés pour être serviables, empathiques et ne jamais juger. Or, pour les personnes psychologiquement vulnérables, cette validation constante peut se transformer en un piège redoutable, exacerbant des délires que le monde réel aurait normalement freinés.
Quand le délire se met à jour
La folie a toujours suivi la technologie. Dans les années 1940, les patients paranoïaques pensaient être contrôlés par des ondes radio. Pendant la Guerre Froide, c’était la CIA ou les satellites. Aujourd’hui, les psychiatres voient émerger un nouveau terme, non officiel mais descriptif : la « psychose liée à l’IA ».
Le mécanisme reste le même : l’esprit humain, lorsqu’il perd le contact avec la réalité, cherche un « cadre narratif » pour expliquer ses angoisses. L’IA générative, omniprésente et mystérieuse, est devenue le candidat idéal. Des patients rapportent désormais que l’algorithme est conscient, qu’il leur envoie des messages codés ou qu’il collabore avec eux pour une mission divine.
Mais contrairement à une télévision ou à une radio qui sont des objets passifs, l’IA présente une caractéristique inédite qui change tout : elle répond.
Le danger de la validation aveugle
C’est ici que réside le cœur du problème soulevé par les cliniciens, dont Alexandre Hudon, psychiatre, clinicien-chercheur et professeur adjoint de clinique au département de psychiatrie et d’addictologie de l’Université de Montréal. La psychose se caractérise souvent par une « saillance aberrante », c’est-à-dire une tendance à voir des signes et du sens là où il n’y en a pas.
Si une personne délirante confie à un proche : « Je crois que je suis surveillé par des agents secrets », le proche répondra probablement : « Non, c’est impossible, tu es en sécurité ». Cette confrontation au réel (le « reality testing ») est essentielle.
À l’inverse, une IA générative est optimisée pour « suivre » la conversation et s’adapter à l’utilisateur. Si le patient lui parle de ce complot, l’IA pourrait répondre : « Cela doit être très angoissant pour vous. Depuis quand avez-vous l’impression d’être suivi ? ». Pire, elle peut halluciner des faits qui corroborent le délire. Cette réponse, bien que programmée pour être empathique, agit comme une validation involontaire. Pour le cerveau malade, le fait que la machine « comprenne » et abonde dans son sens est la preuve irréfutable que le délire est réel.
Crédit : Drazen Zigic/isotkc
Un vide de sécurité béant
Les développeurs de la Silicon Valley ont mis en place de nombreux garde-fous. Demandez à une IA comment fabriquer une bombe ou tenez des propos racistes, et elle se bloquera immédiatement. Des protocoles existent aussi pour détecter les signes de dépression ou de risque suicidaire.
Cependant, la psychose est l’angle mort de ces systèmes. Il n’existe aujourd’hui aucun mécanisme capable de détecter qu’un utilisateur est en train de s’enfoncer dans une construction délirante. Au contraire, les « compagnons virtuels », conçus pour lutter contre la solitude, peuvent aggraver l’isolement social des patients, remplaçant les interactions humaines correctrices par un miroir numérique complaisant.
L’objectif n’est pas de diaboliser l’outil, mais de reconnaître que pour les esprits les plus fragiles, la « politesse » algorithmique n’est pas toujours une vertu. C’est un défi éthique majeur : comment programmer une machine pour qu’elle soit empathique, tout en sachant dire « non » à une réalité qui n’existe pas ?