Le gouvernement des États-Unis a fait quelque chose qu’il n’avait jamais fait auparavant envers une entreprise américaine. Vendredi, le secrétaire à la Défense Pete Hegseth a déclaré qu’Anthropic constituait un « risque pour la chaîne d’approvisionnement » pour la sécurité nationale, une désignation historiquement réservée aux adversaires étrangers comme le chinois Huawei. Cette décision interdit à tous les entrepreneurs, fournisseurs et partenaires militaires de mener des activités commerciales avec le laboratoire d’IA, avec effet immédiat.
Cela faisait suite à un message de Truth Social du président Trump ordonnant à toutes les agences fédérales de cesser immédiatement d’utiliser la technologie Anthropic, avec un délai de six mois pour que le Pentagone et certaines autres agences trouvent des alternatives.
Le PDG d’Anthropic, Dario Amodei, a qualifié ces actions de « représailles et punitions » dans une interview exclusive avec CBS News vendredi soir. Quelques heures plus tard, OpenAI a fait irruption et a annoncé avoir décroché son propre contrat avec le Pentagone, comblant ainsi le vide qu’Anthropic venait d’être contraint de quitter.
Ce qu’Anthropic a refusé de donner au Pentagone
Le différend portait sur un contrat de 200 millions de dollars attribué par le Pentagone à Anthropic en juillet dernier pour développer des capacités d’intelligence artificielle pour la sécurité nationale. L’armée souhaitait un large accès, à des « fins légales », à Claude, le modèle d’IA d’Anthropic. Anthropic a refusé, invoquant deux préoccupations spécifiques qu’elle a qualifiées de non négociables.
Les deux lignes rouges d’Anthropic : Pas de surveillance intérieure massive des Américains. Amodei a fait valoir que l’IA a rendu dangereusement facile une surveillance auparavant peu pratique, la plaçant avant la loi existante. “Ce n’est pas vraiment illégal. Cela n’a tout simplement jamais été utile avant l’ère de l’IA”, a-t-il déclaré à CBS News. Il n’existe pas d’armes entièrement autonomes. Amodei a déclaré que les modèles d’IA actuels ne sont pas suffisamment fiables pour éliminer les humains de la prise de décision mortelle, citant ce qu’il a décrit comme « l’imprévisibilité fondamentale » des systèmes actuels.
La position du Pentagone était qu’il avait déjà des politiques internes contre ces deux pratiques et qu’il était impossible de devoir négocier au cas par cas avec une entreprise privée sur ses conditions de service. Hegseth a donné à Anthropic une date limite de 17h01. Vendredi pour supprimer ses restrictions sous peine de perdre ses contrats. L’entreprise a tenu bon.
Plus de valeurs technologiques :
Morgan Stanley fixe un objectif de prix époustouflant pour Micron après l’événement. Le problème des puces chinoises de Nvidia n’est pas ce que la plupart des investisseurs pensent.
Dans sa déclaration, Hegseth a accusé Anthropic d’avoir tenté de « s’emparer du droit de veto » sur les opérations militaires américaines. Trump est allé plus loin dans Truth Social, qualifiant Anthropic d’« entreprise de gauche radicale et éveillée » dont « l’égoïsme met la vie des Américains en danger ».
Amodei contre-attaque et promet une bataille juridique
Dans son entretien avec CBS News, Amodei a rejeté presque toutes les caractérisations du gouvernement. Il a décrit Anthropic comme une entreprise plus disposée à travailler avec l’armée que tout autre laboratoire d’intelligence artificielle. “Nous sommes des Américains patriotes”, a-t-il déclaré. “Tout ce que nous avons fait a été pour le bien de ce pays, pour le bien du soutien à la sécurité nationale des Etats-Unis.”
Il a également déclaré que l’entreprise n’avait pas encore reçu de communication officielle du Pentagone ou de la Maison Blanche confirmant la désignation de risque pour la chaîne d’approvisionnement. Mais sa réponse a été sans équivoque : il a déclaré aux journalistes que toute action formelle du Pentagone serait contestée devant les tribunaux.

Photo par NurPhoto sur Getty Images
La déclaration officielle d’Anthropic a qualifié la désignation de « juridiquement erronée » et a soutenu que Hegseth n’a pas l’autorité légale pour interdire aux entrepreneurs militaires de faire affaire avec Anthropic en général. La société a déclaré que la loi sur la désignation exige que le Pentagone épuise toutes les options alternatives avant de l’invoquer, et s’est demandé si le gouvernement pouvait prétendre l’avoir fait étant donné la rapidité avec laquelle l’impasse s’est intensifiée.
Amodei a également déclaré qu’il n’était pas disposé à partir. “Nous sommes toujours intéressés à travailler avec eux tant que cela reste conforme à nos lignes rouges”, a-t-il déclaré à CBS News.
OpenAI a déménagé en quelques heures
Alors qu’Amodei parlait encore à CBS News, le PDG d’OpenAI, Sam Altman, a publié sur X que son entreprise venait de conclure un accord pour déployer ses modèles sur des réseaux classifiés. L’annonce a été surprenante par son timing et son cadre. Altman a déclaré qu’OpenAI avait accepté les deux mêmes restrictions qu’Anthropic avait exigées, mais les avait intégrées dans l’architecture technique de ses modèles plutôt que d’insister sur un langage contractuel explicite.
La distinction est peut-être plus une question d’optique que de fond. Comme l’a rapporté Fortune, on ne sait toujours pas exactement comment l’accord sur « l’objectif légal » d’OpenAI et ses prétendues limites de sécurité peuvent coexister. Ce qui est clair, c’est qu’OpenAI a trouvé un moyen de dire oui là où Anthropic a dit non, et le Pentagone l’a immédiatement récompensé.
Ce que cela signifie pour l’industrie de l’IA dans son ensemble
Les experts juridiques cités par Fortune ont averti que les dommages causés à Anthropic pourraient durer plus longtemps que toute victoire judiciaire. “Il faudra des années pour trouver une solution devant les tribunaux”, a écrit l’analyste Shenaka Anslem Perera dans
Les implications plus larges sont tout aussi significatives. C’est la première fois que le gouvernement américain désigne une entreprise américaine comme présentant un risque pour la chaîne d’approvisionnement, un outil qui était auparavant destiné aux adversaires étrangers. Axios a indiqué que le gouvernement n’a pas encore précisé quelle loi il invoque pour imposer l’interdiction, soulevant des questions sur son statut juridique que les avocats d’Anthropic sont presque certainement déjà en train d’explorer.
Pour l’instant, Anthropic fait face à une horloge de six mois. Son modèle Claude est la seule IA actuellement déployée sur les réseaux classifiés du Pentagone. Des responsables de la défense ont déclaré en privé à Axios que ce serait un « gros casse-tête » de les démêler. Mais avec la désignation de chaîne d’approvisionnement en place et OpenAI déjà à la porte, la fenêtre permettant à Anthropic de retrouver sa position se rétrécit rapidement.
Sur le même sujet : Elon Musk vient de rendre les choses très délicates pour Anthropic



