C’est une onde de choc qui secoue la Silicon Valley et les hautes sphères du pouvoir à Washington. Le département de la Défense (DOD) vient de désigner officiellement l’entreprise Anthropic, créatrice de l’IA Claude, comme un « risque pour la chaîne d’approvisionnement ». Ce label infâmant, habituellement réservé aux puissances étrangères hostiles, interdit désormais à toute agence liée au Pentagone d’utiliser ses technologies. Derrière cette décision technique se cache un affrontement éthique brutal : le refus catégorique du PDG d’Anthropic, Dario Amodei, de laisser l’armée transformer ses algorithmes en outils de surveillance intérieure ou en cerveaux pour des armes de guerre totalement autonomes.

Une désignation de risque sans précédent

Le conflit a éclaté lorsque Dario Amodei a posé des limites fermes à l’utilisation militaire de ses systèmes. Anthropic refuse que Claude soit utilisé pour la surveillance de masse des citoyens américains ou pour alimenter des armes capables de décider de tuer sans intervention humaine. Pour le Pentagone, ces restrictions imposées par un prestataire privé sont jugées inacceptables. En réaction, le département a activé une mesure radicale qui traite de fait l’innovateur national plus durement que certains adversaires étrangers.

Cette rupture risque de paralyser de nombreuses opérations en cours. Jusqu’à présent, Anthropic était le seul laboratoire d’IA de pointe à gérer des systèmes classifiés. Claude est actuellement un pilier du système « Maven » de Palantir, utilisé par les forces américaines au Moyen-Orient pour traiter les données de combat. En coupant les ponts, le Pentagone se prive volontairement d’un outil stratégique majeur au nom d’une exigence de contrôle absolu sur la technologie.

Guerre d’influence et soupçons de représailles

Le climat politique pèse lourdement sur cette affaire. Dario Amodei n’hésite pas à qualifier les agissements du Pentagone de « mesures punitives ». Il suggère que son refus de financer la campagne du président Trump ou de faire son éloge a joué un rôle déterminant dans ce désamour soudain. Cette accusation de politisation de la défense nationale est renforcée par le contraste saisissant avec la situation d’OpenAI, le grand concurrent d’Anthropic.

OpenAI a en effet conclu un accord beaucoup plus souple avec le département de la Défense, autorisant l’usage de ses modèles pour « toutes fins légales ». Un libellé jugé ambigu par de nombreux observateurs et qui permettrait précisément les dérives qu’Anthropic tente de bloquer. Le fait que Greg Brockman, président d’OpenAI, soit un soutien financier majeur du camp Trump alimente les théories d’un favoritisme basé sur l’alignement politique plutôt que sur la sécurité nationale.

Crédit : Freepik
Un front uni des travailleurs de la tech

Face à ce qu’ils considèrent comme un abus de pouvoir, des centaines d’employés de géants comme Google et OpenAI ont pris une position publique rare. Ils exhortent le Congrès à intervenir et demandent au Pentagone de retirer cette désignation de risque. Leur crainte est de voir s’installer un précédent où le gouvernement brise les garde-fous éthiques des entreprises technologiques par la force réglementaire et financière.

Dean Ball, ancien conseiller à la Maison-Blanche, a décrit cette situation comme un signe de déclin de la clarté stratégique américaine au profit d’un « tribalisme brutal ». Si cette mise au ban se confirme, elle pourrait redéfinir durablement les relations entre l’État et la Silicon Valley. La question reste entière : le gouvernement peut-il exiger qu’une intelligence artificielle devienne une arme sans aucune restriction éthique de la part de ses créateurs ?