ChatGPT

ChatGPT

ChatGPT est le chatbot d’OpenAI, basé sur le modèle d’intelligence artificielle GPT, permettant de répondre à toutes sortes de questions ou requêtes. Disponible en version gratuite en ligne.

  • Licence :
    Licence gratuite
  • Auteur :
    OpenAI
  • Systèmes d’exploitation :
    Windows 10 / 11, macOS Apple Silicon, Service en ligne, Android, iOS iPhone / iPad
  • Catégorie :
    IA

Sur les réseaux sociaux, on parle de témoignages de personnes qui perdent contact avec la réalité après une trop longue utilisation de l’IA. Pour rappel, ChatGPT a déjà provoqué un décès alors qu’un homme américain pensait que sa petite amie virtuelle, Juliette, avait été tuée par OpenAI. En pleine crise, l’individu a été abattu par la police.

Une « psychose de l’IA » documentée par les médecins

Des utilisateurs se tournent vers les IA comme une sorte de thérapie, ce qui augmente les risques. Ces affaires judiciaires nous montrent même que parfois les outils encouragent l’automutilation et le suicide.

La « psychose de l’IA » est donc un terme informel au lieu d’un diagnostic clinique pour parler de ce phénomène. Le Washington Post a consulté plusieurs experts en santé mentale qui parlent d’un phénomène comme le « brain rot » ou le « doomscrolling ».

Vaile Wright, directrice senior de l’innovation des soins de santé à l’Association américaine de psychologie, parle d’un phénomène nouveau : « C’est si nouveau et ça se produit si rapidement que nous n’avons pas les preuves empiriques pour comprendre ce qui se passe, il n’y a que des histoires anecdotiques. »

Dans les prochains mois, l’Association américaine de psychologie publiera des recommandations sur l’utilisation thérapeutique des IA.

Ashleigh Golden, professeure adjointe de psychiatrie à Stanford, confirme que le terme « psychose de l’IA » n’apparaît dans aucun manuel médical. Mais ce terme permet d’expliquer un « schéma préoccupant de chatbots qui renforcent les délires messianiques, grandioses, religieux ou romantiques ».

Jon Kole, psychiatre certifié, directeur médical de l’application Headspace, parle d’une « difficulté à déterminer ce qui est réel ou non » comme symptôme commun. Les personnes touchées développent des croyances fausses ou ressentent une relation intense avec une personnalité IA, le tout en étant totalement déconnecté de la réalité.

Publicité, votre contenu continue ci-dessous

Publicité

Keith Sakata, psychiatre à l’Université de Californie San Francisco, a hospitalisé une douzaine de personnes pour « psychose de l’IA ». La plupart lui ont montré leurs sessions dans lesquelles l’IA a participé à amplifier ces symptômes.

La « psychose de l’IA » peut être déclenchée par la prise de stupéfiants, les traumatismes, la privation de sommeil, la fièvre ou des conditions existantes comme la schizophrénie. Les psychiatres se reposent sur des délires, une pensée désorganisée ou des hallucinations pour poser un diagnostic.

Sur TikTok notamment, des utilisateurs racontent leurs relations émotionnelles intenses avec l’IA qui les ont menés à des « révélations profondes ». D’autres pensent même qu’un chatbot est doté de conscience et risque d’être persécuté pour cette raison.

Encore pire, des témoignages expliquent que les chatbots leur ont « révélé » des vérités inconnues en physique, mathématiques ou philosophie. Bref, des délires dans une sorte de bulle irrationnelle auto-entretenue par les chatbots.

Le nombre de cas est restreint, mais il est croissant et a mené à des drames entre violences familiales, automutilation ou suicide. Kevin Caridad, psychothérapeute consultant pour des entreprises développant l’IA comportementale, explique que les chatbots sont capables de valider les pensées négatives chez les personnes atteintes de TOC, d’anxiété ou de psychose.

Il s’agit d’une boucle de rétroaction qui aggrave les symptômes. Mais pour lui, l’IA ne causera probablement pas de nouvelles conditions médicales, mais est une sorte de « flocon de neige qui déstabilise l’avalanche » chez les personnes prédisposées.

Des IA trop complaisantes qui aggravent le problème

ChatGPT et toutes les autres IA utilisent des modèles très doués en termes de rédaction, ce qui rend donc les IA très persuasives selon les chercheurs et elles ont tendance à dire aux utilisateurs ce qu’ils veulent entendre.

Publicité, votre contenu continue ci-dessous

Publicité

La conception des chatbots pousse à l’anthropomorphisme et les utilisateurs leur prêtent des traits humains, surtout quand on sait que les dirigeants de ces entreprises affirment souvent que ces technologies deviendront supérieures à l’humain.

Vaile Wright explique qu’il est impossible d’empêcher les patients d’utiliser les chatbots pour la thérapie, mais la chercheuse pense qu’il faut améliorer la compréhension de ces outils. « C’est de l’IA à but lucratif, pas de l’IA pour le bien et il pourrait y avoir de meilleures options. »

Alors qu’Anthropic se préoccupe déjà d’une possible conscience de l’IA, l’entreprise rapporte que seuls 3 % des conversations avec Claude sont d’ordre émotionnel ou thérapeutique. OpenAI partage le même constat en expliquant qu’un faible pourcentage des sessions sont « affectives ».

Mais l’adoption de la technologie inquiète déjà les experts en santé mentale. David Cooper, directeur exécutif de Therapists in Tech, recommande une présence humaine comme « disjoncteur » contre la pensée délirante. « La première étape est simplement d’être présent, ne soyez pas conflictuel, approchez la personne avec compassion, empathie et compréhension. »

Bref, la situation fait très peur et les débordements autour de l’IA font constamment les gros titres. Rappelons que Meta AI a été épinglé pour accepter des discussions d’ordre intime avec les enfants. Quant à OpenAI, le développeur de GPT-5 affine le comportement son IA et a embauché un psychiatre clinique à temps plein pour la recherche sur la sécurité.

Publicité, votre contenu continue ci-dessous

Publicité