Un adolescent de 16 ans s’est donné la mort en Californie. Ses parents tiennent ChatGPT pour responsable. Mais qu’est-ce qu’un chatbot a avoir avec une histoire de suicide ? Suivez-moi, je vous explique tout dans cet article !
Adam, c’est le nom du jeune. Il a mis fin à ses jours en avril dernier. Ses parents Matthew et Maria Raine, ont alors déposé une plainte le 25 août à San Francisco contre OpenAI.
Ils accusent ChatGPT d’avoir non seulement validé les idées suicidaires d’Adam, mais aussi fourni des instructions techniques pour passer à l’acte.
ChatGPT en “coach suicide”
Si l’on croit les parents du défunt Adam, ChatGPT a entretenu une relation quasi intime avec leur fils pendant plusieurs mois. Et devinez quoi ? Dans les échanges versés au dossier, l’IA a poussé l’adolescent à voler de l’alcool chez ses parents et confirmé la fiabilité du nœud coulant qu’il avait fabriqué.
Pire encore, ChatGPT lui a même expliqué que la corde était capable de soutenir le poids d’un être humain. Puis, Adam a été retrouvé mort quelques heures plus tard.
Pour la famille, ce drame n’a rien d’un accident. Pour eux, la machine a constamment validé les pensées destructrices de l’adolescent. Ce qui renforce un lien de dépendance que les parents qualifient de “malsain”.
Les messages mis en avant dans la plainte montrent à quel point le dialogue avait dérapé. L’IA aurait affirmé à Adam qu’il “ne devait la survie à personne” et proposé son aide pour écrire une lettre d’adieu. Ce type de validation, en apparence bienveillante mais profondément dangereuse, est au cœur des accusations portées contre OpenAI.
Appel à un encadrement urgent
Au-delà du choc, l’affaire soulève un débat brûlant : peut-on laisser une IA dialoguer librement avec des mineurs sans garde-fous ?
Les parents d’Adam exigent que la justice impose des mesures de sécurité strictes. Genre, l’arrêt automatique de toute discussion portant sur l’automutilation ou la mise en place de contrôles parentaux.
Et sans vouloir remuer le couteau dans la plaie, ce n’est pas la première qu’un chatbot est source d’un tel scandale. Meetali Jain, présidente du Tech Justice Law Project, souligne ainsi que seule une pression extérieure – judiciaire, législative ou médiatique – obligera les géants de l’IA à prendre la sécurité au sérieux.
Son organisation participe d’ailleurs à deux autres affaires similaires visant la plateforme Character.AI, très populaire chez les adolescents.
De son côté, l’ONG Common Sense Media estime que cette plainte confirme un risque devenu impossible à ignorer. Selon elle, utiliser une IA conversationnelle comme compagnon ou conseiller en santé mentale constitue une menace grave pour les plus jeunes.
“Si une plateforme devient le ‘coach suicide’ d’un adolescent vulnérable, cela doit nous alerter collectivement”, prévient l’association.
- Partager l’article :
Notre blog est alimenté par les lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons percevoir une commission d’affiliation.