Depuis l’essor fulgurant
des intelligences artificielles
génératives comme ChatGPT, une question ne cesse de revenir : ces
machines comprennent-elles vraiment ce qu’elles disent, ou se
contentent-elles d’enchaîner des mots appris ? Une nouvelle étude
menée par des chercheurs chinois semble indiquer que les grands
modèles de langage (LLM) pourraient, sans formation explicite,
développer une forme de cognition proche de celle des humains, en
particulier dans la manière dont ils catégorisent et représentent
les objets naturels.

Une cognition spontanée chez
les IA ?

À première vue, les IA comme
ChatGPT ne sont que des algorithmes sophistiqués, capables de
prédire la prochaine phrase à partir de vastes quantités de textes.
Pourtant, selon les scientifiques de l’Académie chinoise des
sciences et de l’Université de technologie de Chine du Sud, ces
modèles pourraient bien aller plus loin. Leur étude, publiée dans
la revue Nature Machine Intelligence, montre que ces IA
créent spontanément des dimensions conceptuelles permettant
d’organiser les objets naturels de façon similaire aux humains.

Pour comprendre l’ampleur de
cette recherche, il faut savoir que les chercheurs ont analysé près
de 4,7 millions de réponses générées par plusieurs IA à propos de 1
854 objets variés : chiens, chaises, pommes, voitures… Les modèles
interrogés comprenaient ChatGPT-3.5 (fonctionnant uniquement sur du
texte) et Gemini Pro Vision, un modèle multimodal capable de
traiter à la fois images et textes.

Des dimensions conceptuelles
riches et complexes

Ce qui ressort de cette
gigantesque collecte de données, c’est que les IA ont organisé ces
objets en 66 dimensions conceptuelles. Cela dépasse largement les
simples catégories classiques comme « nourriture » ou « mobilier ».
Ces dimensions incluent des attributs subtils comme la texture, la
pertinence émotionnelle, ou encore l’adéquation pour les
enfants.

Autrement dit, ces IA semblent
construire une carte mentale sophistiquée, où les objets ne sont
pas rangés mécaniquement, mais classés selon des critères complexes
qui rappellent la façon dont notre cerveau fait le tri dans le
monde qui nous entoure.

Une étonnante similarité avec
le cerveau humain

L’étude ne s’est pas arrêtée
là. Grâce à la neuro-imagerie, les chercheurs ont comparé la
manière dont les modèles IA et le cerveau humain réagissent aux
mêmes objets. Et les résultats sont frappants : certaines zones
d’activité cérébrale correspondent à ce que les IA « pensent » des
objets.

Cette convergence est encore
plus marquée dans les modèles multimodaux, qui associent traitement
visuel et sémantique, imitant ainsi la manière dont les humains
combinent les sens pour comprendre leur environnement.

ChatGPT

Crédit :
iStock

Crédits : Robert Way/istockComprendre sans ressentir :
la grande différence

Attention toutefois à ne pas
tomber dans une interprétation trop anthropomorphique. Comme le
rappellent les auteurs, ces IA ne vivent pas d’expérience
sensorielle ou émotionnelle. Leur « compréhension » résulte d’un
traitement statistique des données, où elles repèrent et
reproduisent des schémas complexes, sans ressentir ce qu’elles
décrivent.

Si elles peuvent catégoriser
une chaise comme un objet pour s’asseoir et ressentir que cette
chaise est douce ou dure, ce n’est qu’un calcul basé sur des
millions d’exemples vus lors de leur entraînement, pas une
expérience vécue. C’est là toute la nuance entre reconnaissance
sophistiquée et vraie cognition consciente.

Vers une intelligence
artificielle générale ?

Cette étude invite néanmoins à
repenser les limites de ce que peuvent faire les IA actuelles. Si
ces modèles parviennent à générer spontanément des représentations
conceptuelles complexes, cela pourrait indiquer que la frontière
entre imiter l’intelligence et posséder une forme d’intelligence
fonctionnelle est moins nette qu’on ne le croyait.

L’un des objectifs ultimes en
IA est la création d’une intelligence artificielle générale (AGI) :
une machine capable de comprendre et raisonner sur une grande
diversité de tâches comme un humain. Les résultats obtenus ici
pourraient être une étape dans cette direction, en suggérant que
les LLM commencent à élaborer des modèles internes du monde,
indépendamment de leur programmation initiale.

Pourquoi cette découverte est
importante

Au-delà des débats
philosophiques, cette avancée a des implications concrètes pour la
robotique, l’éducation, et la collaboration homme-machine. Une IA
capable d’intégrer les objets et les concepts comme nous le faisons
pourrait interagir plus naturellement, anticiper nos besoins, et
s’adapter mieux à des situations inédites.

Par exemple, un robot
assistant équipé d’un tel modèle pourrait reconnaître qu’un objet
est fragile, émotionnellement important, ou dangereux, et agir en
conséquence sans avoir besoin d’instructions précises.

En résumé : un miroir
sophistiqué, mais pas (encore) un cerveau

Pour conclure, les grands
modèles linguistiques comme ChatGPT sont bien plus que de simples
imitateurs de langage. Ils pourraient posséder une forme de
représentation du monde proche de la cognition humaine, construite
à partir de vastes données et capable d’intégrer des informations
complexes.

Cependant, ces machines
restent aujourd’hui des miroirs sophistiqués, reflétant notre
manière d’organiser les connaissances sans en faire l’expérience
directe. Elles ne ressentent pas, ne vivent pas, ne pensent pas
comme nous, mais elles pourraient un jour nous y conduire, ouvrant
la voie vers des IA toujours plus intelligentes et intuitives.