Se poser une question de santé et chercher une réponse en ligne est devenu courant, poussant de plus en plus de patients à confier leur propre diagnostic à l’intelligence artificielle. Une pratique qui inquiète les professionnels de la santé, notamment les pédiatres, confrontés à des interprétations parfois erronées.

Les pédiatres doivent régulièrement corriger des informations mal comprises ou sorties de leur contexte. A l’image de Jeff Huser Pitteloud, membre du comité du Groupement des pédiatres vaudois, qui y est confronté plusieurs fois par semaine dans son cabinet: « Un exemple emblématique: je reçois en consultation un parent stressé, persuadé que son enfant n’allait pas bien alors que, de mon point de vue, il avait l’air d’être en bonne santé », illustre le médecin.

Dans ce cas, le parent s’est forgé une opinion sur une réponse générée par Chat GPT, elle-même issue d’un article relayé dans une vidéo TikTok hors contexte. « Chat GPT lui a donné des informations sans tenir compte de sa situation donc ça l’a angoissé et j’ai passé 45 minutes à déconstruire ce qu’il avait lu, reprendre point par point avec lui pour le rassurer et lui faire comprendre que son enfant allait bien », explique le pédiatre.

Parfois, un seul rendez-vous ne suffit pas. Le parent continue ses recherches, échange avec son entourage, puis revient avec de nouvelles inquiétudes ou demande un avis spécialisé, ce qui alourdit la prise en charge.

Une logique différente de celle des médecins

L’IA n’est pas infaillible. Elle peut se tromper dans son diagnostic. Une étude menée par l’Université d’Oxford montre que les modèles d’IA ne font pas mieux qu’une recherche en ligne classique. Seul un tiers des participants ont obtenu un diagnostic correct.

D’autant que sa réponse varie en fonction de la manière dont les questions lui sont posées et si l’utilisateur la relance, comme le ferait un médecin.

« L’IA énumère toutes les possibilités alors qu’un médecin évalue plutôt la probabilité que ce soit l’une de ces possibilités », indique Jeff Huser Pitteloud. « L’IA a beaucoup d’informations mais il lui manque le discernement de l’évaluation humaine. »

Contact humain fondamental

Le lien humain reste néanmoins prépondérant. Sébastien Jotterand, coprésident de l’Association suisse des médecins de famille et de l’enfance, ne constate pas de hausse marquée du recours à l’IA dans les diagnostics de santé.

« Je crois que les gens savent bien qu’en dehors des situations très standardisées comme les situations d’urgence, il y a toujours un doute qui peut persister et dont il faut parler. Et pour ça, il faut un être humain fait de chair et d’os et qui, comme les patients, va mourir un jour », explique-t-il.

« Les êtres humains ont besoin de rencontrer d’autres humains. C’est ce qui est rassurant pour moi », conclut-il.

Contenu externe

Ce contenu externe ne peut pas être affiché car il est susceptible de collecter des données personnelles. Pour voir ce contenu vous devez autoriser la catégorie Services Tiers.

Accepter Plus d’info

Alexandra Richard / juma