L’ancien responsable commercial de la « moonshot factory » d’Alphabet, cette branche chargée des projets un peu fous de la maison mère de Google, avance que l’IA fait ressortir ce qu’il y a de pire chez l’humain.
Vous avez sans doute déjà entendu parler des anciens responsables de Facebook qui empêchent leurs enfants d’utiliser les réseaux sociaux. Nous avons une nouvelle occurrence du genre repérée par les collègues de Gizmodo : Mo Gawdat, directeur commercial de la moonshot factory d’Alphabet, cette branche consacrée aux projets un peu fous, avance qu’en 2027, une dystopie de l’IA va démarrer pour les 12 à 15 prochaines années.
Propos à prendre avec beaucoup de pincettes
Ce genre d’alertes possède deux faces : d’un côté, vous avez une personne qui se trouvait dans le cœur de la machine qui vous dit que celle-ci déraille. De l’autre, vous avez un ancien employé qui ne résiste sans doute pas à mettre un petit taquet à son ancien employeur.
Lire aussi: Détecteurs d’IA : l’arme fatale contre la triche à l’école… ou fausse bonne idée ?
En outre, malgré sa présence au sein de Google, l’une des entreprises les plus en pointe sur l’IA générative avec non seulement Gemini, que le grand public connaît bien, mais surtout Google Deep Mind, le responsable n’est pour autant pas capable de lire dans l’avenir. Donner une date aussi précise paraît curieux et assez peu rigoureux.
Toujours est-il que Mo Gawdat a sans doute eu accès à des projets très embryonnaires et des informations inconnues du public. Alors lorsqu’il se rend dans le podcast Journal d’un CEO pour tirer la sonnette d’alarme, cela donne envie d’écouter un minimum. Regardons donc ce qu’il avance.
Faire ressortir le pire chez l’humain
« Nous devrons nous préparer à un monde qui nous est très peu familier », avance l’ancien responsable, qui prédit une « disruption majeure » de « valeurs clés » de l’humanité. Il cite « la liberté, le lien humain, la responsabilité, la réalité et le pouvoir ».
Selon lui, ce n’est pas tant l’IA qui pose problème. « Il n’y a absolument rien à reprocher à l’IA », déclare-t-il. Mais l’IA devrait servir d’amplificateur de problèmes existants et de « nos stupidités en tant qu’humains ».
« Il est tout à fait possible de changer cette situation, mais je dois dire que je ne pense pas que l’humanité soit suffisamment sensibilisée pour se concentrer sur cette question », dispose encore Mo Gawdat.
Selon lui, l’IA risque d’être utilisée pour accentuer « le mal que l’homme peut faire ». Citons quelques exemples récents qui pullulent déjà : surveillance généralisée renforcée grâce à l’IA, licenciements de masse grâce aux « gains de productivité », deepfake à caractère sexuel de personnalités connues (Grok l’a bien démontré la semaine passée) ou encore arnaques automatisées.
La solution ? La loi comme souvent
Avec un tel constat, Mo Gawdat peint donc un tableau bien sombre. Heureusement, son discours ne se limite pas à annoncer le chaos. Il propose tout de même une solution bien concrète. « L’objectif global est de faire pression sur les gouvernements pour qu’ils comprennent qu’il y a une limite au silence », détaille Mo Gawdat.
Selon lui, il ne faut pas réglementer l’IA en elle-même, ce qui freinerait l’innovation, mais l’utilisation de l’IA. Et l’ancien responsable de proposer un parallèle intéressant : « On ne peut pas réglementer la conception d’un marteau pour qu’il puisse planter des clous sans tuer personne, mais on peut criminaliser le meurtre d’un être humain par un marteau. »
Problème, la plupart des dangers de l’IA qu’il invoque lui-même sont déjà soumis à des lois, tout particulièrement en Europe ou France. Pour certains exemples, comme l’utilisation militaire ou en matière de surveillance, l’État pourrait être lui-même l’instigateur d’un usage de l’IA problématique. Bref, le sujet est loin d’être clos. Au moins, nous pourrons dire que nous sommes prévenus désormais ?
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.