L’homme de 60 ans souffrait de paranoïa et d’hallucinations ainsi que divers symptômes qui ont conduit le personnel médical à diagnostiquer le bromisme, une maladie provoquée par l’ingestion de bromure dont les symptômes sont heureusement réversibles.
Il ne faut pas croire tout ce qu’on lit sur internet. Cette maxime devient d’autant plus vraie à l’air des conversations avec des IA génératives. Après un lycéen sanctionné pour avoir triché au bac en utilisant ChatGPT, un homme a subi une sanction autrement plus sévère en faisant confiance au chatbot d’OpenAI, qui vient tout juste de passer à sa version 5.
L’homme, âgé de 60 ans, s’est présenté aux urgences en arguant que son voisin tentait de l’empoisonner, comme le rapporte Ars Technica sur la base d’un article scientifique publié dans les Annals of Internal Medicine : Clinical Case. L’homme n’avait ni précédents psychiatriques et les premières analyses réalisées par le personnel soignant semblaient normales. Après consultation avec le centre antipoison, la thèse du bromisme est apparue assez rapidement comme l’option la plus probable, une maladie bien connue au début du XXe siècle provoquant des symptômes neuropsychiatriques et dermatologiques suite à l’ingestion de bromure, alors très présent dans de nombreux médicaments et utilisé aujourd’hui dans l’entretien des spas.
ChatGPT a suggéré le bromure de sodium pour remplacer le sel de table
Une fois admis, le patient a déclaré qu’il suivait diverses restrictions alimentaires et qu’il distillait sa propre eau à la maison. Un détail pas anodin, puisque le personnel soignant a remarqué que le sexagénaire refusait l’eau qui lui était proposée, malgré une soif apparente. Durant les 24 premières de son hospitalisation, l’homme a manifesté une paranoïa croissante, ainsi que des hallucinations auditives et auditives. Après une tentative de fuite, il a été admis au service psychiatrique. Après quelque temps, le patient a décrit divers symptômes amenant à nouveau les médecins vers la thèse du bromisme.
Ils ont alors pu remonter le fil. L’homme a expliqué qu’après « lu des articles sur les effets négatifs du chlorure de sodium, ou sel de table, sur la santé », il a décidé de se baser sur ses études de nutrition à l’université pour tenter de mener une « expérience personnelle pour éliminer le chlorure de son alimentation ». C’est là qu’entre en scène l’IA générative bien connue : le patient a alors remplacé le chlorure de sodium par du bromure de sodium acheté sur internet, après que l’idée lui a été soufflée par ChatGPT.
Après trois semaines d’hospitalisation et une interruption totale de son ingestion de bromure, les symptômes du patient se considérablement améliorés. Il a pu rentrer chez lui avec deux semaines de check-in réguliers auprès de l’hôpital.
Des conclusions intéressantes sur le rapport IA génératives et santé
Les auteurs de l’article scientifique tirent diverses conclusions de cette mésaventure. Au-delà des considérations médicales dans lesquelles nous ne nous aventurerons pas, ils avancent ceci :
« Ce cas met également en évidence la façon dont l’utilisation de l’intelligence artificielle (IA) peut potentiellement contribuer au développement d’effets indésirables évitables sur la santé. D’après la chronologie de ce cas, il semble que le patient ait consulté ChatGPT 3.5 ou 4.0 lorsqu’il s’est demandé comment il pourrait éliminer le chlorure de son régime alimentaire. Malheureusement, nous n’avons pas accès à son journal de conversation ChatGPT et nous ne pourrons jamais savoir avec certitude quelle a été la réponse qu’il a reçue, puisque les réponses individuelles sont uniques et se construisent à partir des entrées précédentes. » Cela pose donc la question de l’accès aux données des IA génératives lorsque leur utilisation mène à des situations dangereuses en effet.
Autre considération, les scientifiques ont utilisé ChatGPT avec GPT 3.5 afin de voir s’ils obtenaient une réponse similaire au patient. Et en effet, ils écrivent : « nous avons également obtenu une réponse qui incluait le bromure. Bien que la réponse indique que le contexte est important, elle ne fournit pas d’avertissement sanitaire spécifique et ne demande pas non plus pourquoi nous voulons savoir, comme nous supposons qu’un professionnel de la santé le ferait. »
Tout cela les amène à conclure que « ChatGPT et d’autres systèmes d’IA peuvent générer des inexactitudes scientifiques, manquer de capacité à discuter les résultats de manière critique et, en fin de compte, alimenter la diffusion de fausses informations. » S’ils voient les bienfaits de cet « outil très prometteur pour jeter un pont entre les scientifiques et la population non universitaire », ils soulignent « le risque de promulguer des informations décontextualisées ». Ils encouragent les soignants à commencer à prendre en compte l’essor de cette technologie « lorsqu’ils chercheront à savoir où leurs patients consomment des informations sur la santé ».
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.