Et si l’intelligence artificielle la
plus impressionnante de notre époque se faisait battre par une
console vieille de près de 50 ans ? C’est exactement ce qui est
arrivé lors d’un match improbable entre ChatGPT et… un Atari 2600.
Plus qu’un simple gag technologique, cette rencontre inattendue
révèle une vérité fascinante (et souvent mal comprise) sur les IA
modernes : elles sont loin d’être aussi intelligentes qu’on
l’imagine.
Un duel insolite entre deux
« IA »
Tout commence avec une idée
aussi curieuse que provocatrice : faire jouer ChatGPT à une partie
d’échecs contre un programme datant de 1979, conçu pour l’Atari
2600, une console célèbre pour ses graphismes rudimentaires et sa
puissance quasi nulle selon les standards actuels. Le logiciel en
question, Video Chess,
utilise une intelligence artificielle simpliste, codée pour tenir
dans quelques kilo-octets de mémoire.
De l’autre côté de
l’échiquier, ChatGPT, un modèle linguistique massif de type LLM
(Large Language Model), développé par OpenAI, et capable de générer
des réponses sophistiquées sur presque tous les sujets imaginables.
La comparaison paraît inégale… et pourtant.
Spoiler : ChatGPT perd.
Spectaculairement.
Lors du match, ChatGPT doit
indiquer ses coups en texte à travers un émulateur. Très vite, des
problèmes apparaissent. Il oublie la position de ses pièces,
confond les règles, suggère des mouvements illégaux, voire
contradictoires. L’IA fait jouer des pions inexistants, déplace des
dames sur des diagonales impossibles, ou inverse les couleurs des
camps. Résultat ? L’antique moteur d’échecs d’Atari, pourtant lent
et très limité, le bat facilement.
Ce n’est pas seulement une
défaite, c’est un crash pédagogique. Et il nous en dit long sur ce
qu’est (et n’est pas) l’intelligence artificielle aujourd’hui.
ChatGPT n’est pas fait pour
jouer… mais pour parler
Contrairement à ce que l’on
pourrait croire, ChatGPT n’est pas une IA « générale » au sens
classique. Il n’a pas de mémoire de travail, pas de stratégie
interne, pas de compréhension logique des situations. C’est un
modèle statistique qui génère du texte en prédisant, mot après mot,
ce qui est le plus probable selon son entraînement.
Autrement dit, ChatGPT peut
expliquer les règles des échecs avec brio, commenter une partie
célèbre, ou même analyser la stratégie d’un joueur de haut niveau.
Mais dès qu’on lui demande de jouer concrètement, il perd ses
repères. Il ne « voit » pas l’échiquier, ne retient pas
ses propres coups, et n’est pas conçu pour suivre une logique de
jeu structurée.
L’Atari 2600, lui, respecte
les règles
À l’inverse, le moteur
d’échecs de l’Atari, bien que primitif, est rigide. Il applique une
logique binaire très simple, mais parfaitement conforme aux règles.
Il n’a pas besoin de « comprendre » ce qu’il fait. Il calcule,
évalue les positions, et joue en respectant le cadre. C’est
suffisant pour battre un modèle linguistique qui ne sait pas
« raisonner » en continu.
Ce paradoxe – une IA vieille
de 45 ans qui bat un modèle d’IA dernier cri – montre que la
spécialisation l’emporte souvent sur la puissance brute. Un modèle
conçu pour une tâche très précise sera toujours plus efficace qu’un
modèle polyvalent qui tente de tout faire sans structure
dédiée.
Crédit :
iStock
Crédits :Photology1971/istockCe que cette expérience nous
apprend sur l’IA moderne
Ce match insolite est une
leçon déguisée sur les limites des grands modèles de langage.
Contrairement à une croyance répandue, ChatGPT n’est pas une
superintelligence. C’est un miroir linguistique, qui reflète les
textes humains avec une finesse remarquable, mais sans
compréhension profonde.
-
Il ne peut pas manipuler des
objets dans l’espace (comme un échiquier). -
Il ne suit pas les règles d’un
jeu avec persistance. -
Il ne possède ni mémoire à
long terme, ni capacité de planification structurée.
En revanche, il est
extraordinairement doué pour formuler des phrases qui « sonnent
juste ». C’est ce qui fait sa force… et ses limites.
Vers des IA hybrides et mieux
structurées ?
L’avenir de l’IA pourrait
justement consister à combiner les forces de modèles comme ChatGPT
avec des modules logiques, des moteurs de planification, ou des
mémoires structurées. C’est ce qu’on appelle parfois des systèmes
hybrides, capables de traiter le langage naturel tout en raisonnant
avec précision.
Un ChatGPT capable de jouer
correctement aux échecs devrait être couplé à un moteur de jeu
spécialisé, ou disposer d’un mécanisme d’état interne qui lui
permet de suivre la partie. Ce n’est pas impossible, mais ce n’est
pas encore le cas.