Scientifique en blouse blanche dans un laboratoire moderne, travaillant devant plusieurs écrans affichant des publications scientifiques générées automatiquementDans ce labo, l’IA rédige les articles. Le chercheur, lui, supervise… sans toujours s’en rendre compte.

En ce début juillet 2025, une étude de 2024 a fait grand bruit : selon ses auteurs, un article biomédical sur huit aurait des traces d’intelligence artificielle. Des mots spécifiques, un style trop lisse, une tournure qui semble… artificielle. Oui, l’IA s’infiltre discrètement dans les laboratoires, jusqu’à signer, en douce, une part croissante de la recherche mondiale. Autrement dit, le plus inquiétant, c’est que personne ne s’en rend compte.

Comment repérer les textes scientifiques rédigés (en partie) par une IA ?

C’est un chiffre qui donne le vertige : 13,5 % des résumés publiés sur PubMed en 2024 porteraient la marque d’un outil comme ChatGPT. Cette estimation, on la doit à une équipe de chercheurs de Northwestern University et de l’Institut Hertie pour l’IA appliquée à la santé. Leur méthode ? Une véritable chasse aux mots : « delve », « underscores », « showcasing »… Autant de termes autrefois rares, désormais omniprésents dans les abstracts biomédicaux.

Lire aussi Rien ne va plus pour Musk : Tesla dévisse, xAI dérape, et l’effondrement s’accélère

En d’autres termes, ces indices stylistiques suffisent à éveiller les soupçons.

S’agit-il d’une preuve irréfutable ? Pas vraiment. Stuart Geiger, professeur à l’université de Californie à San Diego, le rappelle : la langue évolue naturellement, et ces mots peuvent simplement refléter une tendance stylistique. Cependant, quand la tendance en question suit à la lettre les tics de langage d’un chatbot, le doute s’installe.

Et ce doute est redoutable. En effet, ce qu’il ébranle, ce n’est pas seulement la forme. C’est la confiance même dans la science.

Lire aussi ChatGPT vous aide, Nvidia flambe à 4 000 milliards pendant que vos neurones s’éteignent en silence selon une étude du MIT

Quand la confiance vacille : l’IA est-elle un outil ou un imposteur ?

Ce n’est pas la première fois que l’IA met à l’épreuve nos repères. Mais cette fois, ce qui change, ici, c’est son pouvoir de mimétisme. Elle ne se contente plus d’aider : elle remplace, parfois sans qu’on sache exactement à quel moment la machine a pris le relais de l’humain.

Kathleen Perley, de l’université Rice, défend pourtant un usage éthique de l’IA : faciliter l’accès à la publication pour les chercheurs non-anglophones ou neuroatypiques, aider à franchir la barrière de la langue, rendre visible l’invisible. Dès lors, pourquoi pénaliser ceux qui utilisent un outil pour mieux transmettre leurs idées ?

Mais la frontière entre assistance et substitution reste floue. Par ailleurs, les outils censés détecter les textes générés par IA sont eux-mêmes peu fiables. ZeroGPT croit reconnaître 97 % de génération IA dans la Déclaration d’indépendance des États-Unis. GPTZero, lui, parle de 10 %. Qui croire ?

Lire aussi L’IA commence à menacer des utilisateurs, un phénomène qui suscite l’inquiétude

La vraie question est peut-être là : si même les experts ne savent plus distinguer un chercheur d’un chatbot… autrement dit, que reste-t-il de la rigueur scientifique ?

Une science toujours rigoureuse… mais de moins en moins humaine ?

En apparence, rien n’a changé. Les articles continuent d’affluer, les laboratoires publient, les revues évaluent. Pourtant, en coulisses, l’intelligence artificielle agit comme un auteur fantôme. Elle n’est pas encore prête à penser à notre place, mais elle sait déjà très bien écrire à notre façon.

Et ça, c’est un basculement silencieux. Une mue invisible. Une crise existentielle qui couve : en définitive, la science peut-elle rester humaine quand ses mots ne le sont plus ?

Lire aussi Intelligence artificielle : la vérité dérangeante sur l’apprentissage humain révélée par le MIT