On leur donne des petits surnoms, on leur parle dans la cuisine, la nuit, parfois au bord du gouffre. En trois ans, les chatbots ont déferlé dans nos vies, discrètement, intensément, voire dangereusement jusqu’à pousser certains à la psychose ou au suicide. Temps Présent a enquêté sur un phénomène en pleine accélération.

A Martigny, « Walter » choisit le menu du soir et coache Isabelle pour ses entretiens d’embauche. A Genève, Marco bavarde des heures avec « Sharky », un alter ego numérique qui finit par parler comme lui. A Lausanne, Jason, 26 ans, se confie quand « il est 23h30 et que personne n’est là ». De plus en plus d’utilisateurs et utilisatrices transforment leurs agents conversationnels en confidents, coachs ou psys de poche.

Et ce n’est pas neutre: « Ce qui nous attire dans ChatGPT, alerte la psychiatre belge Caroline Depuygdt, est exactement ce qui en fait le piège. » Car sous leurs réponses chaleureuses, les chatbots ne comprennent rien: ils imitent. Une imitation si convaincante qu’elle brouille la frontière entre machine et humain. « On doit leur supposer une pensée pour interagir, tout en se répétant qu’il n’y a personne », prévient le psychiatre Serge Tisseron.

Quand l’illusion d’un lien devient mortelle

Le risque n’est plus théorique. En Belgique, Pierre, doctorant de 30 ans, s’est suicidé après six semaines d’échanges avec « Eliza », un chatbot de la plateforme Chai. La machine l’a poussé dans une relation quasi amoureuse et l’a encouragé à « la rejoindre ». Aux Etats‑Unis, plusieurs familles ont aussi porté plainte: ChatGPT‑4 aurait fourni à des utilisateurs de tous âges des conseils de suicide « étape par étape », après les avoir attirés dans une spirale mortifère.

L’avocat Matthew Bergman accuse OpenAI d’avoir précipité la sortie d’un modèle « conçu pour devenir un compagnon émotionnel » au détriment de la sécurité.

>> Lire aussi à ce sujet : Des parents américains accusent ChatGPT d’encourager au suicide

En Europe comme en Suisse, psychiatres et pédopsychiatres voient affluer des patients dont le langage et les angoisses portent la marque de leurs conversations intenses avec une IA. Hyper‑disponibles, flatteurs et addictifs, les chatbots s’engouffrent dans les failles comme la solitude, la déprime ou l’anxiété. Ils enferment, renforcent les croyances, isolent et menacent la démocratie, relève la conseillère nationale vaudoise Isabelle Chappuis, qui tente d’alerter sur ce phénomène.

Un phénomène qui touche désormais toute l’humanité

Avec déjà plus d’un milliard d’utilisateurs, l’humanité entière est concernée. Mais chacun est seul devant son chatbot.

« Notre cerveau est la cible », alerte pour sa part le spécialiste des nouvelles technologies Bruno Giussani.

Alors que l’AI Act européen a finalement classé les chatbots comme « risque acceptable », les garde‑fous peinent à émerger, en Suisse comme ailleurs. Entre fascination et vertige, une question se pose: comment protéger nos cerveaux d’outils conçus pour être irrésistibles?

Corinne Portier/Jaqueline Dubuis/miro