Le ministre américain de la Défense, Pete Hegseth, ici le 29 janvier 2026, a posé un ultimatum à l’entreprise Anthropic.

BRENDAN SMIALOWSKI / AFP

Le ministre américain de la Défense, Pete Hegseth, ici le 29 janvier 2026, a posé un ultimatum à l’entreprise Anthropic.

L’IA Claude au cœur de la tourmente. Le ministre américain de la Défense Pete Hegseth a fixé, ce mardi 24 février, un ultimatum explosif à la start-up d’intelligence artificielle Anthropic afin qu’elle lève toutes les restrictions à l’utilisation de son IA par le Pentagone.

Concrètement, la société californienne a jusqu’à vendredi, 17h01, heure de Washington, pour s’exécuter, faute de quoi le ministre entend user d’une loi votée en 1950 – le Defense Production Act – qui permet de forcer une entreprise privée à produire des biens pour la défense nationale, a indiqué un responsable à l’AFP.

Le ministre entend également, en cas de refus, de faire inscrire Anthropic sur la liste des sociétés qui présentent « un risque pour les approvisionnements ». Les entreprises figurant sur cette liste font l’objet de restrictions drastiques en matière de contrats avec le gouvernement américain. L’accord de « 200 millions de dollars » qui lie Anthropic et l’éxecutif prendrait ainsi automatiquement fin, souligne Courrier International.

Empêcher le recours à Claude dans deux cas

La liste s’applique généralement à des sociétés dont les autorités américaines craignent que leurs produits ne servent à des activités susceptibles de menacer la sécurité nationale des États-Unis. Ne figurent actuellement sur la liste que des sociétés étrangères, dont l’équipementier chinois Huawei ou le spécialiste russe des logiciels antivirus Kaspersky.

L’ultimatum intervient après une rencontre mardi entre Pete Hegseth et le patron d’Anthropic, Dario Amodei.

Le ministère a demandé à ses fournisseurs d’IA de lever les restrictions d’utilisation de leurs modèles par défaut, pour élargir les cas d’usage possibles tant qu’ils restent dans la légalité. Tous ont donné leur accord, y compris Anthropic, mais l’entreprise californienne a souhaité empêcher le recours à son modèle d’IA Claude dans deux cas, la surveillance de masse des populations et l’automatisation d’une attaque mortelle.

Mission de « sécurité nationale »

« Nous poursuivons nos discussions de bonne foi relatives aux usages (de l’IA) », a déclaré à l’AFP un porte-parole d’Anthropic. L’objectif, selon lui, est de s’« assurer qu’Anthropic peut continuer à soutenir la mission de sécurité nationale du gouvernement en accord avec ce que nos modèles peuvent réaliser de façon responsable et fiable ».

Un haut responsable du ministère a, de son côté, assuré au Financial Times que la technologie d’Anthropic sera utilisée par l’armée, même si Dario Amodei le refuse.

Fondée en 2021 par des anciens d’OpenAI, Anthropic a toujours revendiqué une approche éthique de l’IA. Début 2026, la start-up a publié un document appelé « constitution » qui détaille une série d’instructions données à Claude pour encadrer sa production. Elles visent notamment à « empêcher des actions à la dangerosité inappropriée ».