
Le contrat de 200 millions de dollars d’Anthropic avec le ministère de la Défense est en suspens après qu’Anthropic aurait fait part de ses inquiétudes concernant l’utilisation par le Pentagone de son modèle Claude AI lors du raid de Nicolás Maduro en janvier.
“Les relations du ministère de la Guerre avec Anthropic sont en cours de révision”, a déclaré le porte-parole en chef du Pentagone, Sean Parnell, dans une déclaration à Fortune. “Notre nation exige que nos partenaires soient prêts à aider nos combattants à gagner n’importe quel combat. En fin de compte, il s’agit de nos troupes et de la sécurité du peuple américain.”
Les tensions se sont accrues ces dernières semaines après qu’un haut responsable d’Anthropic aurait approché un haut dirigeant de Palantir pour lui demander comment Claude avait été utilisé dans le raid, selon The Hill. L’exécutif de Palantir a interprété cette approche comme une désapprobation de l’utilisation du modèle dans le raid et a envoyé les détails de l’échange au Pentagone. (Le président Trump a déclaré que l’armée avait utilisé une arme « découpleuse » pendant le raid, ce qui rendait l’équipement ennemi « non fonctionnel ».)
“Anthropic n’a pas discuté de l’utilisation de Claude pour des opérations spécifiques avec le ministère de la Guerre”, a déclaré un porte-parole d’Anthropic dans une déclaration à Fortune. “Nous n’avons pas non plus discuté de ce sujet ni exprimé nos préoccupations à des partenaires industriels en dehors des discussions de routine sur des questions strictement techniques.”
Au centre de ce différend se trouvent les barrières contractuelles qui dictent la manière dont les modèles d’IA peuvent être utilisés dans les opérations de défense. Le PDG d’Anthropic, Dario Amodei, a toujours plaidé en faveur de limites strictes sur l’utilisation et la réglementation de l’IA, admettant même qu’il est difficile d’équilibrer sécurité et profits. Depuis des mois, l’entreprise et le ministère de la Défense sont en négociations controversées sur la manière dont Claude peut être utilisé dans des opérations militaires.
Dans le cadre du contrat du ministère de la Défense, Anthropic n’autorisera pas le Pentagone à utiliser ses modèles d’intelligence artificielle pour la surveillance de masse des Américains ou l’utilisation de sa technologie dans des armes entièrement autonomes. L’entreprise a également interdit l’utilisation de sa technologie dans des applications militaires « mortelles » ou « cinétiques ». Toute implication directe dans des tirs actifs lors du raid de Maduro violerait probablement ces conditions.
Parmi les sociétés d’IA qui ont des contrats gouvernementaux (dont OpenAI, Google et xAI), Anthropic occupe une position lucrative qui place Claude comme le seul modèle de langage majeur autorisé sur les réseaux classifiés du Pentagone.
Cette position a été soulignée par Anthropic dans une déclaration à Fortune. “Claude est utilisé pour une grande variété de cas d’utilisation liés au renseignement au sein du gouvernement, y compris le DoW, conformément à notre politique d’utilisation.”
La société “s’engage à utiliser l’IA frontalière pour soutenir la sécurité nationale des États-Unis”, indique le communiqué. “Nous avons des conversations productives, de bonne foi, avec le ministère de la Guerre sur la manière de poursuivre ce travail et de résoudre ces problèmes complexes.”
Palantir, OpenAI, Google et xAI n’ont pas immédiatement répondu à une demande de commentaire.
L’IA part en guerre
Bien que le DOD ait accéléré ses efforts pour intégrer l’IA dans ses opérations, seul xAI a autorisé l’utilisation de ses modèles à « toutes fins légales », tandis que les autres maintiennent des restrictions d’utilisation.
Amodei tire la sonnette d’alarme depuis des mois sur la protection des utilisateurs, proposant Anthropic comme alternative de sécurité à OpenAI et Google en l’absence de réglementation gouvernementale. “Je me sens profondément mal à l’aise face à ces décisions prises par quelques entreprises”, avait-il déclaré en novembre. Même si la rumeur disait qu’Anthropic envisageait d’assouplir les restrictions, l’entreprise risque désormais d’être complètement exclue de l’industrie de la défense.
Un haut responsable du Pentagone a déclaré que le secrétaire à la Défense d’Axios, Pete Hegseth, était « sur le point » de retirer Anthropic de la chaîne d’approvisionnement militaire, obligeant ainsi quiconque souhaite faire des affaires avec l’armée à rompre également ses liens avec l’entreprise.
« Ce sera un énorme casse-tête de les démêler, et nous veillerons à ce qu’ils paient le prix de nous forcer à agir de cette façon », a déclaré le haut responsable au média.
Le fait d’être considéré comme un problème de risque en matière d’approvisionnement militaire est une désignation spéciale généralement réservée uniquement aux adversaires étrangers. Le précédent le plus proche est l’interdiction imposée par le gouvernement à Huawei en 2019 pour des raisons de sécurité nationale. Dans le cas d’Anthropic, des sources ont déclaré à Axios que les responsables de la défense cherchaient depuis un certain temps à se battre avec la société basée à San Francisco.
Les commentaires du Pentagone sont les derniers en date d’une querelle publique qui atteint son paroxysme. Le gouvernement affirme qu’obliger les entreprises à fixer des limites éthiques à leurs modèles serait inutilement restrictif et que le grand nombre de zones grises rendrait les technologies inutiles. Alors que le Pentagone continue de négocier avec les sous-traitants de l’IA pour étendre son utilisation, le conflit public se transforme en une escarmouche par procuration pour savoir qui dictera les utilisations de l’IA.



