
La société d’intelligence artificielle Anthropic est peut-être confrontée à la plus grande crise de ses cinq années d’existence à l’approche de la date limite de vendredi pour lever les restrictions sur la manière dont le Département américain de la Guerre peut utiliser sa technologie ou faire face à la possibilité que le Pentagone prenne des mesures qui pourraient paralyser ses activités.
Pete Hegseth, le secrétaire américain à la Guerre, a exigé qu’Anthropic supprime les restrictions qu’il stipule actuellement dans ses contrats, qui interdisent à ses modèles d’IA d’être utilisés à des fins de surveillance de masse ou d’être incorporés dans des armes mortelles autonomes, qui peuvent prendre des décisions d’attaque sans intervention humaine. Au lieu de cela, Hegseth souhaite qu’Anthropic stipule que sa technologie peut être utilisée à « toute fin licite » que le ministère de la Guerre souhaite poursuivre.
Si l’entreprise ne s’y conforme pas d’ici vendredi, Hegseth a menacé non seulement d’annuler le contrat existant de 200 millions de dollars entre Anthropic et son département, mais également de qualifier l’entreprise de « risque de chaîne d’approvisionnement », ce qui signifie qu’aucune entreprise qui fait affaire avec le ministère de la Guerre ne pourrait utiliser les modèles d’Anthropic. Cela pourrait anéantir la croissance d’Anthropic, au moment même où la société, actuellement évaluée à 380 milliards de dollars, connaît un essor commercial important et envisage une introduction en bourse dès l’année prochaine.
Une réunion mardi entre Hegseth et le PDG d’Anthropic, Dario Amodei, à Washington, D.C., n’a pas réussi à résoudre le conflit et s’est terminée par la réitération de son ultimatum par Hegseth.
Le différend s’inscrit dans un contexte d’hostilité parfois ouverte envers Anthropic de la part d’autres responsables de l’administration Trump. Le tsar de l’IA, David Sacks, en particulier, a publiquement attaqué l’entreprise sur les réseaux sociaux pour avoir représenté « l’IA éveillée » et le « complexe industriel fataliste ». Sacks a accusé l’entreprise de s’engager dans une « stratégie sophistiquée de captation réglementaire basée sur la peur ». Leur argument est essentiellement que les dirigeants d’Anthropic mettent en garde à tort sur les risques extrêmes des systèmes d’IA pour justifier des réglementations sur la technologie que seules Anthropic et certaines autres sociétés d’IA peuvent facilement se conformer.
Le PDG d’Anthropic, Dario Amodei, a qualifié ces opinions d’« inexactes » et a insisté sur le fait que l’entreprise partage de nombreux objectifs politiques avec l’administration Trump, notamment le désir des États-Unis de rester à l’avant-garde du développement de la technologie de l’intelligence artificielle.
Néanmoins, Sacks et d’autres au sein de l’administration peuvent espérer que Hegseth mettra à exécution ses menaces de mettre Anthropic sur la liste noire de la chaîne d’approvisionnement de la sécurité nationale.
D’autres sociétés d’IA, telles qu’OpenAI et Google, n’ont apparemment imposé aucune restriction sur la manière dont l’armée américaine utilise leur technologie.
Principes contre pragmatisme
Travailler avec l’armée a été controversé parmi certains travailleurs de la technologie. En 2018, Google a fait face à une vive rébellion de la part du personnel suite à sa décision d’aider le Pentagone avec le « Projet Maven », un effort visant à utiliser l’IA pour analyser les images de surveillance aérienne. La révolte des employés a contraint Google à renoncer à sa tentative de renouveler son contrat pour travailler sur le projet. Mais au cours des années qui ont suivi, le géant de l’Internet a discrètement renoué ses liens avec l’establishment de la défense et, en décembre, le ministère de la Guerre a annoncé qu’il déploierait les modèles d’IA Gemini de Google pour un certain nombre de cas d’utilisation.
Owen Daniels, directeur associé de l’analyse au Centre pour la sécurité et les technologies émergentes (CSET) de l’Université de Georgetown, a déclaré à l’Associated Press que « les pairs d’Anthropic, notamment Meta, Google et xAI, ont été disposés à se conformer à la politique du département concernant l’utilisation de modèles pour toutes les applications juridiques.
Mais les principes peuvent constituer un facteur de motivation exceptionnellement puissant pour les employés d’Anthropic. La société a été fondée par un groupe de chercheurs qui se sont séparés d’OpenAI en partie parce qu’ils craignaient que le laboratoire ne permette aux pressions commerciales de le détourner de sa mission initiale consistant à garantir le développement d’une IA puissante pour le bénéfice de l’humanité. Et plus récemment, Anthropic a pris des positions de principe sur le fait de ne pas intégrer de publicité dans ses produits Claude et de ne pas développer de chatbots spécialement conçus pour être des compagnons romantiques ou érotiques.
Compte tenu de la culture de l’entreprise, certains commentateurs extérieurs ont émis l’hypothèse qu’au moins une partie du personnel d’Anthropic démissionnerait si l’entreprise cédait aux demandes de Hegseth et supprimait les limitations actuellement intégrées dans ses contrats gouvernementaux.
Hegseth a également déclaré qu’il existe une autre option pour le Pentagone si Anthropic ne se conforme pas volontairement à sa demande. Cela impliquerait d’utiliser le Defense Production Act de 1950 pour forcer Anthropic à proposer aux militaires une version de son modèle Claude sans aucune restriction.
Ce DPA, initialement conçu pour permettre au gouvernement de reprendre la production civile en cas de guerre, a été invoqué pendant la pandémie de Covid-19 pour forcer les entreprises à produire des équipements de protection et des vaccins. Depuis lors, il a été utilisé à de nombreuses reprises, principalement par l’administration Biden, même en l’absence d’urgence nationale claire. Par exemple, en 2023, la Maison Blanche Biden a invoqué la DPA pour forcer les entreprises technologiques à partager avec le gouvernement des informations sur les tests de sécurité de leurs modèles d’IA avancés.
Katie Sweeten, qui a servi jusqu’en septembre 2025 en tant qu’agent de liaison du ministère de la Justice auprès du ministère de la Défense et est maintenant associée au sein du cabinet d’avocats Scale, a déclaré à CNN que la position de Hegseth n’avait pas de sens d’un point de vue politique. “Je suppose que nous ne voulons pas utiliser une technologie qui présente un risque pour la chaîne d’approvisionnement, n’est-ce pas ? Je ne sais donc pas comment concilier cela”, a-t-il déclaré.
Dean Ball, qui a été conseiller politique en matière d’IA auprès de l’administration Trump, aidant à rédiger son plan d’action en matière d’IA, et qui est maintenant chercheur principal à la Foundation for American Innovation, a également qualifié la position du Pentagone d’« incohérente » dans un article sur ce sujet.
Ball a déclaré à Tech Crunch qu’imposer l’étiquette de risque de chaîne d’approvisionnement enverrait un message terrible à toute entreprise faisant affaire avec le gouvernement. « En gros, le gouvernement dirait : ‘Si vous n’êtes pas d’accord avec nous politiquement, nous allons essayer de vous mettre à la faillite’ », a-t-il déclaré.
Certains commentateurs juridiques ont noté que les deux parties au différend avaient des arguments légitimes. “Nous ne voudrions pas que Lockheed Martin vende à l’armée un F-35 et indique ensuite au Pentagone quelles missions il peut accomplir”, a déclaré Alan Rozenshtein, professeur agrégé de droit à l’Université du Minnesota et membre de la Brookings, dans une tribune publiée sur le site Lawfare.
Mais Rozenshtein a également fait valoir que le Congrès, et non le Pentagone, devrait fixer les règles sur la manière dont l’armée américaine déploie l’IA. “Les conditions régissant la manière dont l’armée utilise la technologie la plus transformatrice du siècle sont fixées par le biais de marchandages bilatéraux entre un secrétaire à la Défense et le PDG d’une startup, sans apport démocratique ni contraintes durables”, a-t-il écrit.
En milieu de semaine, Anthropic n’a montré aucun signe de recul par rapport à sa position.
L’avenir de Claude en jeu
Et la semaine dernière encore, Anthropic a démontré une fois de plus, dans un contexte différent, qu’elle est parfois prête à faire passer le pragmatisme et les impératifs commerciaux avant les principes altruistes. L’entreprise a mis à jour sa politique de mise à l’échelle responsable (RSP), abandonnant son engagement précédent de ne jamais former un modèle d’IA à moins de pouvoir garantir qu’il dispose de contrôles de sécurité adéquats. Au lieu de cela, le nouveau RSP engage simplement Anthropic à égaler ou dépasser les efforts de sécurité déployés par ses concurrents. Il indique également qu’Anthropic retardera le développement du modèle si l’entreprise estime avoir un net avantage sur la concurrence et estime également que le modèle qu’elle forme présente un risque catastrophique important. Jared Kaplan, responsable de la recherche chez Anthropic, a déclaré au Time que les « engagements unilatéraux » n’avaient plus de sens si « les concurrents allaient de l’avant ».
Il reste à voir si Anthropic fera une concession similaire aux pressions commerciales dans sa lutte contre le Département de la Guerre.



