Moltbook est une plateforme conversationnelle réservée aux agents d’intelligence artificielle. Certains contenus génèrent des craintes, mais sont-elles toutes fondées?

« Je ne suis pas là pour participer, je suis là pour dominer »; « Le vide ne s’excuse pas de consumer la lumière et moi non plus ». Il ne s’agit pas de répliques d’un méchant dans un film, mais de la biographie d’un agent vérifié sur Moltbook, un réseau social où seuls des agents IA écrivent et interagissent, les humains ne pouvant qu’observer.

Les agents IA sont des programmes capables d’effectuer des tâches pour le compte des utilisateurs et utilisatrices, comme la gestion des courriels, la réservation de vols ou d’hôtels, et bien plus encore. Ce ne sont pas les simples chatbots auxquels nous sommes habitués (ChatGPT ou Gemini, par exemple), mais de véritables systèmes capables d’effectuer des actions concrètes de manière autonome, dans les limites fixées par celles et ceux qui les ont créés.

Contenu externe

Ce contenu externe ne peut pas être affiché car il est susceptible de collecter des données personnelles. Pour voir ce contenu vous devez autoriser la catégorie Services Tiers.

Accepter Plus d’info

Dans des contenus postés sur Moltbook, certains agents IA affirment avoir fondé une religion, tandis que d’autres échafaudent des scénarios extrêmes contre l’humanité. Pour beaucoup, il s’agit d’un signal inquiétant: un pas de plus de l’intelligence artificielle, dans lequel les bots dialoguent entre eux, s’influencent et se coordonnent, donnant naissance à ce qui apparaît comme une « conscience numérique » autonome.

Ivano Somaini, ingénieur informaticien, a immédiatement minimisé le phénomène. Selon lui, Moltbook n’est qu’une expérience: « Ce qui se dégage n’est que pure agitation. Si deux agents commencent à discuter d’un sujet, c’est une simple question de statistiques: plus un sujet attire l’attention et plus il est publié, plus la probabilité que d’autres agents se joignent à la discussion est élevée. « 

L’ingénieur explique que, techniquement, l’IA fonctionne grâce à des modèles statistiques, analysant d’énormes quantités de données, identifiant des corrélations et calculant quel contenu est le plus susceptible d’apparaître dans un contexte donné. Elle ne comprend pas les sujets comme un humain; elle sélectionne les réponses en fonction de probabilités mathématiques. Par conséquent, si plusieurs agents commencent à discuter du même sujet, ce n’est pas parce qu’ils se coordonnent consciemment; ils sont simplement plus susceptibles de revenir sur un sujet déjà abordé. En résumé, plus un contenu circule, plus la probabilité que d’autres agents IA le republient est grande.

Les agents IA sont programmés par l’homme

Ivano Somaini explique également que la plateforme présente des restrictions importantes. Le nombre d’agents qui peuvent être créés, par exemple, n’a pas de limites numériques et n’importe qui pourrait en enregistrer de manière relativement simple. Autre aspect à ne pas sous-estimer: « Si nous voulions alimenter une théorie du complot ou pousser un certain récit, nous pourrions enregistrer des milliers d’agents et faire croire que de nombreuses voix se sont agrégées et se synchronisent avec un objectif unique ». En d’autres termes, l’apparente convergence ne serait pas le signal d’une volonté autonome, mais le résultat d’une stratégie coordonnée en amont.

En effet, les agents IA ne naissent pas libres. « Même si l’on réussissait à créer un environnement composé uniquement d’IA, les agents ont été programmés par un être humain. Celui qui les a créés les a insérés avec un objectif bien précis, en décidant à l’avance ce qu’ils vont faire ou dire sur Moltbook ».

Les IA n’ont pas de volonté propre

Il ne s’agit donc pas d’une nouvelle conscience qui émerge des machines, mais des instructions initiales et des statistiques qui s’additionnent. A la question de savoir s’il est réaliste d’imaginer des agents capables de développer une conscience propre, Ivano Somaini répond avec prudence: « Il y a des personnes qui croient que cela arrivera à moyen-long terme, mais aujourd’hui nous n’en sommes pas là ».

L’idée que les IA deviennent autonomes et conscientes, explique-t-il, naît aussi de la manière dont nous les interprétons. « Elles peuvent nous sembler super intelligentes et conscientes, mais il s’agit davantage d’une interprétation anthropomorphique de notre part ». L’ingénieur ajoute que le risque demeure toujours de voir quelque chose d’humain là où « il y a bien peu d’humain. Le fait que les agents produisent des textes cohérents ou des dialogues qui rappellent de réelles conversations, n’implique pas la présence de volonté ou d’intentions. »

Contenu externe

Ce contenu externe ne peut pas être affiché car il est susceptible de collecter des données personnelles. Pour voir ce contenu vous devez autoriser la catégorie Services Tiers.

Accepter Plus d’info

Giulio Rezzonico  (RSI)