En lisant le dernier rapport de 145 pages de Google DeepMind, il se pourrait bien que vous ayez l’impression de lire un scénario de science-fiction sur l’avenir de l’humanité. En effet, avec des annonces hebdomadaires de la part des plus grands acteurs de l’intelligence artificielle, et l’émergence de nouveaux acteurs comme Manus.ai, les plus grands experts de l’IA affirment que l’AGI (Artificial General Intelligence) pourrait arriver dans les 5 prochaines années.
Bien que le concept d’intelligence artificielle « générale » soit encore très vague, les chercheurs de Google DeepMind, notamment en charge de l’IA Gemini de Google, ont récemment affirmé que cette technologie pouvait arriver à maturité dans un futur très proche. Malheureusement, cela n’a pas provoqué l’enthousiasme de ces chercheurs, mais une profonde inquiétude qui pourrait rebattre les cartes…
L’AGI pourrait « détruire l’humanité » selon Google DeepMind
Si les fonctionnalités des outils d’IA permettent aujourd’hui de faire de la programmation, de générer des images, et même demain de faire des achats à votre place comme le promet Amazon, elle pourrait aussi décider de votre avenir sur terre.
En effet, c’est ce que semblent défendre les chercheurs de Google DeepMind, dont Shane Legg, l’un des co-fondateurs du projet chez la firme américaine. Bien que l’auteur ne précise pas exactement comment l’AGI pourrait causer de « graves dommages » pour l’humanité, celui-ci se veut prévoyant.
A cette fin, il souhaite proposer aux autres laboratoires de recherches d’IA de mettre en place des mesures strictes pour éviter l’extinction de l’humanité.
Une régulation de l’IA à venir dans les prochaines années ?
Au mois de mars dernier, Demis Hassabis, le PDG de DeepMind, affirmait auprès de NBC News que l’intelligence artificielle générale devrait arriver dans les cinq à dix prochaines années, en ajoutant que 2030 était aujourd’hui la date la plus probable.
Cette information, mise en corrélation avec le dernier rapport de Google DeepMind, est particulièrement inquiétante selon le laboratoire de l’entreprise américaine. En effet, selon les chercheurs, bien que l’intelligence artificielle serve aujourd’hui à progresser dans la recherche, elle aurait aussi des effets néfastes.
L’étude de Google DeepMind a pu les classer en quatre catégories, de l’utilisation dite « abusive » pour les individus qui utiliseraient l’IA pour des objectifs nuisibles ou un « désalignement » qui provoquerait le même résultat de façon involontaire, en passant par des erreurs de conception, ou encore des risques structurels qui pourraient créer des conflits entre des organisations, des pays, et par extension, des IA.
Pour éviter un scénario catastrophe, les chercheurs de Google DeepMind souhaitent justement convaincre les plus grands experts de l’IA en établissant une stratégie d’atténuation des risques. Malheureusement, cette idée est loin de faire l’unanimité. Anthony Aguirre, directeur exécutif du Future of Life Institute, a notamment déclaré à Fortune que cet « effort admirable » n’était pas suffisant pour faire face à ces risques.