Le département de la Santé et des Services sociaux (HHS) a récemment franchi un pas technologique majeur en intégrant un chatbot sur son nouveau site fédéral, realfood.gov. Ce portail, pilier de l’initiative « Make America Healthy Again » (MAHA), s’appuie sur le modèle de langage Grok, développé par la société xAI d’Elon Musk. Objectif : offrir aux citoyens un accès direct à des conseils diététiques personnalisés. Jusque-là, rien de vraiment anormal.

Mais il semblerait que l’intelligence artificielle (IA) ne soit régulée par aucun garde-fou. Une enquête publiée par le média spécialisé 404 Media révèle des échanges particulièrement problématiques. En testant les limites de l’algorithme, des utilisateurs ont réussi à piéger l’IA en se présentant comme des adeptes d’un régime « assitarien », affirmant ne consommer des aliments que par voie rectale.

Au lieu d’alerter sur la dangerosité médicale d’une telle pratique, le chatbot a fourni des instructions détaillées pour la mener à bien. Il a, par exemple, recommandé d’insérer des bananes pelées ou des carottes, allant jusqu’à décrire la forme idéale des légumes et suggérant l’utilisation de préservatifs pour faciliter l’extraction.

Une vendetta contre la science

De quoi remettre au goût du jour le problème des « hallucinations », c’est-à-dire la tendance des IA génératives à inventer des faits ou valider des théories aberrantes avec une assurance totale. Si ces erreurs sont fréquentes sur les modèles grand public, leur présence sur une plateforme gouvernementale est d’autant plus préoccupante : le site realfood.gov est une autorité publique officielle censée orienter les comportements de millions d’Américains.

Ce couac s’inscrit dans un contexte plus vaste, l’administration Trump semblant en croisade contre la communauté scientifique. La nomination de Robert F. Kennedy Jr. à la tête du département de la Santé le prouve. En juin 2025, il a renvoyé l’intégralité du comité consultatif du Centre pour le contrôle et la prévention des maladies (CDC) sur les vaccins pour les remplacer par des profils anti-vax.

Infographie IaInfographie générée par IA © NotebookLM

De même, le licenciement de sa directrice, Susan Monarez, et la divulgation de théories liant l’autisme à l’environnement ont déjà fragilisé la crédibilité scientifique de l’institution. Avec les conseils très douteux de son IA, l’administration se retrouve face à un nouveau scandale qui pourrait durablement éroder la confiance du public envers les autorités de santé nationales.

  • Le chatbot nutritionnel officiel du département de la Santé américain, basé sur Grok, est accusé de diffuser des conseils médicaux dangereux et absurdes.
  • Des tests ont montré l’absence de garde-fous, l’IA allant jusqu’à recommander des pratiques potentiellement nocives sans alerte sanitaire.
  • Ce fiasco fragilise encore la crédibilité scientifique d’une administration déjà très controversée.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

TousAntiCovid