Refuser un contrat de 200 millions de dollars pour des raisons éthiques: c’est la décision d’Anthropic, une entreprise américaine d’intelligence artificielle qui a décidé de dire non au Pentagone. Un geste rare qui ouvre un débat plus large sur la capacité des entreprises technologiques à tenir tête aux demandes des Etats.
En estimant que son intelligence artificielle n’était pas prête et n’offrait pas encore la fiabilité nécessaire pour qu’on lui confie un pouvoir de vie ou de mort, même indirectement, Dario Amodei, dirigeant du groupe américain Anthropic, a refusé que sa technologie soit utilisée pour des armes capables d’agir seules ou pour des opérations de surveillance.
Selon Anthropic, développeur de Claude et concurrent de ChatGPT, cet enjeu apparaît dès que l’armée intègre de l’IA dans son arsenal. L’entreprise redoute que sa technologie serve un jour à déployer des armes entièrement autonomes ou alimente de vastes dispositifs de surveillance de masse, deux usages où le risque d’erreur reste élevé.
Un refus qui a finalement entraîné la rupture d’un contrat de 200 millions de dollars signé quelques mois plus tôt avec le Pentagone. Il pourrait aussi compromettre, à terme, des contrats valant »plusieurs milliards de dollars », reconnaît le directeur financier du groupe Anthropic.
Entre conviction morale et effet d’image
Un choix coûteux, mais qui, selon l’expert en IA Matthieu Corthésy, témoigne d’une démarche sincère. « C’est intéressant, car ils craignent qu’un jour l’IA devienne totalement autonome et puisse, dans le pire des cas, détruire l’humanité. Depuis le début de l’année, Anthropic et surtout Dario Amodei ont franchi une nouvelle étape en publiant ce qu’ils appellent la constitution de Claude — un cadre qu’ils aimeraient voir devenir une véritable référence pour l’IA », explique-t-il vendredi dans La Matinale.
Ce texte affirme que l’IA doit rester alignée sur les besoins de l’humanité, avec une démarche presque philosophique.
A partir du moment où cette décision a été rendue publique, l’application Claude s’est retrouvée numéro un, […] beaucoup d’utilisateurs sont passés de ChatGPT à Claude
Matthieu Corthésy, expert en intelligence artificielle et directeur d’OUTILIA Sàrl
Si le choix d’Anthropic repose en partie sur des principes, il comporte aussi une dimension stratégique. Car refuser 200 millions de dollars au nom de l’éthique représente un geste fort, et cette décision a également renforcé l’image de l’entreprise auprès du public.
« Ce qui est intéressant, c’est qu’à partir du moment où cette décision a été rendue publique, l’application Claude s’est retrouvée numéro un des installations dans de nombreux pays. Beaucoup d’utilisateurs sont passés de ChatGPT à Claude. Donc l’argent perdu avec le gouvernement a peut‑être été récupéré par cet afflux de nouveaux utilisateurs de Claude », ajoute Matthieu Corthésy.
Après le refus d’Anthropic, OpenAI — la maison mère de ChatGPT — a, elle, accepté de collaborer avec le Pentagone, une décision mal accueillie par le public. Néanmoins, le bras de fer avec Washington ne fait sans doute que commencer: Anthropic a désormais déposé plainte contre l’Etat américain.
>> Lire aussi à ce sujet : L’entreprise d’IA Anthropic attaque le gouvernement Trump en justice pour sanctions excessives
La Suisse aussi rattrapée par le débat
Mais cette tension entre « tech et Etat » ne se limite pas aux Etats‑Unis, observe Andy Yen, directeur de Proton, l’une des principales entreprises de la tech suisse basée à Genève. Selon lui, ce qui est arrivé à Anthropic trouverait un écho en Suisse, où le Conseil fédéral prévoit d’adapter plusieurs ordonnances pour préciser quelles sociétés doivent assister l’Etat dans ses activités de surveillance. Swisscom, Salt ou Sunrise sont déjà concernées, et d’autres entreprises pourraient entrer dans cette catégorie.
>> Lire aussi à ce sujet : L’entreprise technologique genevoise Proton gèle ses investissements en Suisse
Andy Yen redoute une évolution qu’il juge incompatible avec ses valeurs: « C’est une ligne, qu’en tant que dirigeant d’entreprise, mais aussi en tant que défenseur convaincu de la démocratie, […] que je ne suis pas prêt à franchir. »
Le projet de Beat Jans revient à installer une caméra et un micro dans votre maison, […] en promettant de ne rien regarder ni écouter sauf si vous commettez un crime
Andy Yen, directeur de Proton
Il estime que le projet de Beat Jans revient à « installer une caméra et un micro dans votre maison, peut‑être même dans votre chambre, en promettant de ne rien regarder ni écouter sauf si vous commettez un crime », dénonce le directeur de Proton.
Face aux critiques, le Conseil fédéral a décidé de revoir sa copie et de lancer une nouvelle consultation. Une victoire d’étape pour Proton, qui attend désormais de voir la version finale du projet avant de décider de son futur dans le pays.
Contenu externe
Ce contenu externe ne peut pas être affiché car il est susceptible de collecter des données personnelles. Pour voir ce contenu vous devez autoriser la catégorie Services Tiers.
Accepter Plus d’info
Sujet radio: Cynthia Racine
Adaptation web: Miroslav Mares