Anthropic vient de poursuivre le Pentagone en justice. Le résultat pourrait remodeler la course à l’IA avec la Chine | Fortune

Lorsque l’administration Trump a qualifié Anthropic de « risque pour la chaîne d’approvisionnement » et a ordonné à toutes les agences fédérales de cesser d’utiliser Claude, elle n’a pas simplement annulé un contrat de 200 millions de dollars. Il a peut-être déclenché une chaîne d’événements qui affaiblit la société américaine d’intelligence artificielle la plus avancée, au moment précis où l’Amérique en a le plus besoin.

Anthropic a déposé deux poursuites contre le ministère de la Défense. Ce qui se passera ensuite pourrait avoir beaucoup plus d’importance que ce que l’une ou l’autre des parties laisse entendre.

Que s’est-il réellement passé

Anthropic aurait refusé de donner au Pentagone un accès illimité à Claude, son modèle d’IA frontalier, le seul fonctionnant actuellement sur des réseaux militaires classifiés. Ils voulaient avoir l’assurance qu’il n’y aurait pas de surveillance de masse ni d’armes autonomes sans qu’un être humain soit au courant et prenne les décisions finales de vie ou de mort. Le message du ministère de la Guerre était « supprimez ces restrictions ou perdez tout ». Et le président Trump a ordonné à toutes les agences fédérales de cesser d’utiliser Anthropic et a désigné l’entreprise comme un « risque pour la chaîne d’approvisionnement ».

Mais il y a bien plus dans cette histoire que des procès et des egos meurtris.

La vraie menace n’est pas le contrat

La loi fédérale interdit déjà la surveillance massive des citoyens américains. La politique du Département de la Guerre restreint déjà les armes autonomes. Anthropic exige un droit de veto contractuel sur les activités déjà illégales. Une entreprise privée prétendant avoir autorité sur la manière dont l’armée américaine opère n’est pas acceptable. Personne n’a élu Dario Amodei et nous ne laissons pas Lockheed dicter la doctrine du ciblage. L’idée selon laquelle un éditeur de logiciels devrait avoir un droit de veto sur les décisions militaires opérationnelles est sans précédent.

Claude surpasse ChatGPT dans pratiquement tous les principaux benchmarks commerciaux, du raisonnement juridique et de la modélisation financière à la cybersécurité et à la modernisation des systèmes existants. Mais la désignation de « risque lié à la chaîne d’approvisionnement » par le ministère de la Guerre menace de mettre fin à la dynamique commerciale d’Anthropic avant qu’elle ne puisse pleinement capitaliser sur son leadership technologique.

Quels sont les enjeux géopolitiques

Anthropic a signé son contrat de 200 millions de dollars avec le Pentagone en juillet 2025. C’était il y a huit mois. Maintenant, c’est fait et OpenAI arrive et comble cette lacune. Dire que cela s’est produit rapidement est un euphémisme.

De plus, Anthropic et OpenAI ont publiquement accusé les laboratoires chinois de distiller leurs modèles. Ces versions open source volées, y compris Deepseek, sont désormais accessibles à l’APL, à l’Iran et à tous les mauvais acteurs de la planète, sans barrières de sécurité. Voulons-nous exister dans un monde où les entreprises américaines restreignent leur propre armée tandis que les adversaires s’entraînent avec des versions piratées de cette même technologie sans aucune restriction ?

La véritable menace existentielle n’est pas la perte du contrat de 200 millions de dollars, mais l’effet d’entraînement qui se propagera à AWS, Google, Palantir, Accenture, Deloitte et à l’ensemble de l’écosystème des sous-traitants de la défense, atteignant profondément la clientèle commerciale d’Anthropic aux États-Unis.

Le monde des affaires a montré qu’il ferait tout ce qui était en son pouvoir pour satisfaire l’administration actuelle. Toutes les entreprises faisant affaire avec le gouvernement fédéral doivent désormais potentiellement certifier une exposition nulle aux produits anthropiques. AWS, Google Cloud et Azure sont au service du gouvernement, et Anthropic affirme que Claude est utilisé par les plus grandes entreprises américaines et que beaucoup sont des sous-traitants de la défense. Si cela se produit, Anthropic pourrait ne plus être viable aux États-Unis pour très longtemps.

Anthropic peut-il gagner au tribunal ?

À mon avis, légalement, cette désignation ne survivra pas. Il existe des limitations liées à l’article 10 USC § 3252, aux arguments relatifs à la procédure régulière et au premier amendement, ainsi qu’aux précédents Luokung et Xiaomi. Ensuite, il y a la contradiction inhérente que le gouvernement dit qu’Anthropic est dangereux, mais qu’il accorde six mois pour l’éliminer progressivement.

Tout cela combiné et il existe un manuel de jeu permettant à Anthropic de remporter ces deux combinaisons. Ils ont des milliards, ce qui signifie qu’ils peuvent se permettre la meilleure équipe juridique possible. Ils ont les munitions et la volonté de combattre cette administration aussi longtemps que nécessaire.

Que devrait faire Anthropic maintenant ?

Gagner au tribunal est nécessaire mais pas suffisant. Pour rester viable, Anthropic doit avancer simultanément sur plusieurs fronts :

Accélérer la domination des entreprises nationales avec des entreprises non liées aux contrats gouvernementaux Construire une stratégie gouvernementale alliée : identifier les partenaires internationaux qui peuvent bénéficier de Claude et construire cette clientèle immédiatement. Mener des poursuites agressives et sans fin : le retard est l’ennemi.

La question centrale n’est pas vraiment une question de poursuites judiciaires ou d’argent contractuel. Il s’agit de savoir qui décide des limites de la défense nationale : les élus responsables devant les électeurs ou les dirigeants du secteur technologique responsables devant leurs conseils d’administration. Vinod Khosla l’a dit clairement : il admire les principes d’Anthropic, mais il n’est pas d’accord avec le principe lui-même.

Les opinions exprimées dans les commentaires de Fortune.com sont uniquement celles de leurs auteurs et ne reflètent pas nécessairement les opinions et croyances de Fortune.

spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici