Depuis des années, l’intelligence artificielle est présentée comme un atout majeur pour la médecine, capable d’améliorer les diagnostics, d’affiner l’imagerie médicale ou même de contribuer, selon certains enthousiastes, à trouver un jour le mythique remède contre le cancer. Mais une étude publiée dans The Lancet Gastroenterology & Hepatology vient jeter un froid : les médecins qui utilisent régulièrement l’IA pourraient perdre en efficacité lorsqu’ils doivent travailler sans elle.
Le « Google Maps effect » appliqué à la médecine
L’étude a été menée dans le cadre du programme Artificial Intelligence in Colonoscopy for Cancer Prevention (ACCEPT), financé par la Commission européenne et le Japon. Quatre centres d’endoscopie en Pologne y ont participé, équipés en 2021 d’outils d’IA destinés à détecter les polypes — des excroissances pouvant être bénignes ou précancéreuses. Les chercheurs ont comparé la qualité de 1.443 colonoscopies réalisées sans IA (sur un total de 2.177) avant et après l’introduction de la technologie.
Résultat : trois mois avant l’arrivée de l’IA, le taux de détection d’adénomes (ADR), indicateur clé de qualité, atteignait environ 28 %. Trois mois après, ce taux tombait à 22 % lorsque les médecins travaillaient sans assistance, alors même que l’IA augmentait les performances lorsqu’elle était activée.
Pour Marcin Romańczyk, coauteur de l’étude, le phénomène s’apparente au « Google Maps effect » : « Imaginez que vous deviez vous orienter sans GPS : on perd vite l’habitude de lire une carte. C’est similaire ici. » Les chercheurs évoquent une tendance naturelle à se reposer sur les systèmes d’aide à la décision, ce qui réduirait la concentration, la motivation et le sens des responsabilités en l’absence de la machine.
Omer Ahmad, gastroentérologue consultant à l’University College Hospital de Londres, estime que l’exposition régulière à l’IA pourrait affaiblir des compétences essentielles, comme la reconnaissance visuelle de motifs ou les réflexes de recherche d’anomalies. La confiance diagnostique pourrait aussi être affectée, tout comme la dextérité dans la manipulation du coloscope.
Certains experts invitent toutefois à nuancer. On souligne ainsi que le nombre total de procédures a augmenté durant l’étude, ce qui a pu induire de la fatigue et influé sur les performances. Par ailleurs, le biais d’automatisation — cette tendance à trop faire confiance aux systèmes — n’est pas propre à l’IA : toute nouvelle technologie comporte ce risque.
La question éthique est surtout de savoir si nous voulons faire davantage confiance à l’IA qu’aux humains. Pour Omer Ahmad, il ne s’agit pas seulement de surveiller la technologie, mais de « préserver des compétences essentielles dans un monde où l’IA sera omniprésente ».
En clair, l’IA promet d’améliorer le dépistage, mais elle pourrait aussi, si elle est mal intégrée, affaiblir les compétences qu’elle est censée assister. La solution est difficile à trouver : un équilibre subtil entre l’aide technologique et l’expertise des humains.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités et sur notre WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.