Adobe Stock
Illustration d’un robot humanoïde travaillant sur une équation complexe.
TECH & FUTURS – Une superintelligence artificielle va-t-elle bientôt surpasser les humains ? Ce scénario digne d’un film de science-fiction inquiète plus de 700 scientifiques, personnalités politiques, entrepreneurs tech et célébrités qui craignent des conséquences que cela ferait encourir à l’humanité.
Dans une tribune lancée par le Future of Life Institute, organisme non lucratif basé aux États-Unis qui met régulièrement en garde contre les méfaits de l’IA, tous demandent l’arrêt des travaux visant au développement d’une intelligence artificielle (IA) capable de surpasser les capacités humaines « tant qu’il n’y a pas un consensus scientifique que cela peut être construit de façon contrôlée et sécurisée et tant qu’il n’existe pas un soutien de la part de la population ».
Parmi les signataires figurent plusieurs pères de l’IA moderne comme Geoffrey Hinton, prix Nobel de physique en 2024 ; mais aussi des figures de la tech comme Richard Branson, fondateur du groupe Virgin et Steve Wozniak, cofondateur d’Apple ; des personnalités politiques comme Steve Bannon, ancien conseiller du président américain Donald Trump et Susan Rice, conseillère à la sécurité nationale sous Barack Obama ; mais aussi des célébrités comme le chanteur américain will.i.am ou encore le prince Harry et son épouse Meghan Markle.
Une menace bien réelle ?
La plupart des grands acteurs de l’IA cherchent à développer l’intelligence artificielle générale (AGI), stade auquel l’IA égalerait toutes les capacités intellectuelles des humains, mais aussi la superintelligence, qui les surpasserait. En tête de file, Mark Zuckerberg qui a créé le 30 juin le « Meta Superintelligence Labs », lançant dans le même temps une guerre ouverte avec OpenAI.
D’ailleurs, cette entreprise concurrente qui a donné naissance à ChatGPT est aussi sur le coup. Pour son patron Sam Altman, le cap de la superintelligence pourrait ainsi être atteint d’ici cinq ans. Il est vrai que quand on voit Sora 2, sa nouvelle application mobile qui banalise les deepfakes, on peut s’inquiéter de l’ampleur que prendra l’IA dans nos vies et jusqu’où peut-elle aller ?
Néanmoins, de nombreux chercheurs estiment qu’on en est encore loin. Comme l’explique cet article de The Conversation, Meredith Ringel Morris, chercheuse chez Google, a créé un tableau avec six niveaux de développement de l’IA. Si certaines peuvent être considérées comme relevant de la superintelligence, cela s’applique à des secteurs très spécifiques. Nous ne sommes donc pas près d’avoir un modèle général tel qu’on le voit dans les films de science-fiction.
Question de principe
Si l’arrivée d’une superintelligence artificielle n’est pas pour demain, pour Max Tegmark, président du Future of Life Institute, la question n’est pas là. « Peu importe que ce soit dans deux ou quinze ans, construire une telle chose est inacceptable », a-t-il déclaré à l’AFP et pour qui les entreprises ne devraient pas plancher sur ce type de travaux « sans aucun cadre réglementaire ». Il précise : « On peut être en faveur de la création d’outils d’intelligence artificielle plus puissants, pour guérir le cancer par exemple, tout en étant contre la superintelligence ».
Mais pour Simon Coghlan, professeur à l’université de Melbourne, se concentrer sur l’hypothèse d’une superintelligence artificielle est également un problème. « Accorder une importance excessive aux menaces hypothétiques liées à l’intelligence artificielle superintelligente risque de nous détourner des dangers réels que représente aujourd’hui l’IA, tels que les décisions automatisées biaisées, les suppressions d’emplois et les violations du droit d’auteur », explique-t-il à The Conversation avant d’ajouter « cela pourrait également nous détourner des véritables dangers existentiels tels que le changement climatique, auquel l’IA, grande consommatrice d’énergie, pourrait elle-même contribuer ».