Un homme de 60 ans a été hospitalisé après avoir remplacé le sel de table par du bromure de sodium, sur la base de conseils obtenus via ChatGPT.
De plus en plus de personnes se tournent vers ChatGPT, cette intelligence artificielle capable de répondre à toutes sortes de questions, y compris en matière de santé. C’est le cas d’un homme de 60 ans qui a demandé à l’IA comment remplacer le chlorure de sodium (le sel de table) dans son alimentation.
Sur la base des réponses obtenues, il a commencé à utiliser du bromure de sodium comme substitut. Sans le savoir, il a introduit dans son alimentation une substance chimique potentiellement toxique, habituellement utilisée à des fins industrielles ou médicales, mais absolument pas destinée à être consommée comme du sel.
Trois mois d’intoxication silencieuse
Pendant près de trois mois, le sexagénaire a donc utilisé du bromure de sodium dans ses repas. Peu à peu, il a développé des symptômes inquiétants : hallucinations auditives et visuelles, paranoïa, confusion mentale, fatigue, troubles du comportement. Il a fini par être hospitalisé en urgence, rapporte The Independent, citant un rapport médical publié par l’American College of Physicians.
Un état psychiatrique inquiétant
Le rapport décrit un état psychique particulièrement altéré : l’homme était extrêmement assoiffé, mais refusait de boire l’eau qu’on lui proposait, persuadé qu’elle était dangereuse. Il n’avait pourtant aucun antécédent psychiatrique ou médical. Dès les premières heures d’hospitalisation, il présentait une paranoïa accrue et des signes clairs d’hallucinations.
Les médecins ont rapidement diagnostiqué un cas de bromisme : une intoxication au bromure, rare aujourd’hui, mais bien connue pour provoquer des troubles neurologiques et dermatologiques.
Une expérience personnelle mal maîtrisée
Stabilisé grâce à un traitement par fluides et électrolytes, il a pu être transféré en unité de psychiatrie. Une fois lucide, il a expliqué sa démarche : inspiré par ses études en nutrition à l’université, il avait voulu mener une expérience personnelle visant à éliminer le chlorure de son alimentation. Il avait acheté du bromure de sodium sur internet, après avoir lu, via ChatGPT, qu’il pouvait théoriquement remplacer le chlorure — une confusion probablement liée à des usages industriels ou de nettoyage.
Une hospitalisation de trois semaines
L’homme est resté hospitalisé durant trois semaines avant de pouvoir rentrer chez lui. Ce cas met en lumière les risques bien réels de s’appuyer sur des conseils médicaux donnés par une intelligence artificielle.
Les auteurs du rapport rappellent que ChatGPT et d’autres outils d’IA peuvent générer des informations inexactes, qu’ils ne disposent pas de sens critique, et qu’ils peuvent involontairement contribuer à la diffusion de fausses informations. OpenAI précise d’ailleurs, dans ses conditions d’utilisation, que ses services ne doivent pas être utilisés pour diagnostiquer ou traiter des problèmes de santé.