La guerre en Iran marque un tournant dans la guerre moderne du fait de l’utilisation l’intelligence artificielle, capable d’identifier des milliers de cibles en très peu de temps. Devant cette industrialisation de la guerre, la question de la vérification humaine devient un enjeu majeur.

L’attaque israélo-américaine en Iran rappelle les guerres précédentes dans la région. Mais une chose a changé: les cibles des missiles et les bombes ne sont plus uniquement décidées par des humains, mais aussi par des machines. Le premier jour de la guerre, les forces armées américaines ont bombardé plus de 1000 cibles en Iran. Cette énorme quantité de cibles a été identifiée par le Maven Smart System, un logiciel d’IA du groupe américain Palantir, qui fournit des analyses de données pour l’armée et les autorités de sécurité.

Contenu externe

Ce contenu externe ne peut pas être affiché car il est susceptible de collecter des données personnelles. Pour voir ce contenu vous devez autoriser la catégorie Services Tiers.

Accepter Plus d’info

A partir d’images satellites, de signaux radio et d’informations provenant des réseaux sociaux, le système d’IA crée en temps réel une image numérique de la situation sur le champ de bataille. Le programme peut identifier en quelques heures des milliers de cibles ennemies, suivre leurs mouvements et même proposer des systèmes d’armes adaptés. Ce qui demandait autrefois des semaines aux analystes, le système Maven l’accomplit aujourd’hui en quelques heures. Le résultat est une industrialisation de la guerre.

Des processus rapides en peu de temps

La spécialiste du droit international Jessica Dorsey voit cette évolution d’un œil critique: « L’utilisation de cette IA permet des milliers d’identifications de cibles en peu de temps. En même temps, les soldats n’ont souvent pas assez de temps pour vérifier de manière critique les résultats. Des conflits antérieurs ont montré que les humains se fient alors trop fortement aux décisions de la machine. »

Nous accordons en principe davantage de confiance à un système, à une machine qu’à notre propre intuition.

Vanessa Vohs , Experte en systèmes d’armes autonomes

L’experte en systèmes d’armes autonomes Vanessa Vohs met également en garde contre l’utilisation incontrôlée de tels systèmes d’IA: « Il est aussi important de comprendre que nous, les humains, avons ce qu’on appelle un biais d’automatisation. Cela signifie que nous faisons en principe davantage confiance à un système, à une machine qu’à notre propre intuition. Et cela devient particulièrement dangereux lors d’opérations militaires. »

L’IA pourrait protéger les civils

Cette dynamique pourrait également avoir joué un rôle dans les frappes américaines dans le sud de l’Iran, où une école de filles a été touchée et 165 enfants ainsi que 26 enseignants ont été tués. Selon les enquêtes du Pentagone, le bâtiment était encore répertorié comme base militaire dans des bases de données obsolètes.

L’IA pourrait aussi contribuer à réduire les victimes civiles – si cela devenait une priorité.

Jessica Dorsey , Experte en droit international

Selon Jessica Dorsey, si la protection des civils était la priorité, les outils d’IA pourraient aider à réduire les victimes civiles. L’IA peut en principe faire tout ce qu’on lui demande. « Mais la protection des civils ne semble manifestement pas être au centre des préoccupations du Pentagone. »

L’absence de règles

Pour utiliser de manière responsable les systèmes d’armes assistés par IA, il faut toutefois un contrôle humain suffisant. Vanessa Vohs est convaincue que le degré d’autonomie va augmenter: « La question est de savoir comment se prendront finalement les décisions concernant la sélection et l’engagement des cibles. » A ce sujet, l’experte plaide pour qu’un contrôle humain significatif soit préservé. De plus, il manque jusqu’à présent des règles internationales claires pour l’utilisation de systèmes d’armes assistés par IA.

Contenu externe

Ce contenu externe ne peut pas être affiché car il est susceptible de collecter des données personnelles. Pour voir ce contenu vous devez autoriser la catégorie Services Tiers.

Accepter Plus d’info

Andrin Owassapian (SRF)