
Un juge fédéral s’est prononcé en faveur de la société d’intelligence artificielle Anthropic en empêchant temporairement le Pentagone de qualifier l’entreprise de risque pour la chaîne d’approvisionnement.
La juge de district américaine Rita Lin a déclaré jeudi qu’elle bloquait également la directive du président Donald Trump ordonnant à toutes les agences fédérales de cesser d’utiliser Anthropic et son chatbot Claude.
Lin a déclaré que les « larges mesures punitives » prises contre la société d’IA par l’administration Trump et le secrétaire à la Défense Pete Hegseth semblaient arbitraires et capricieuses et pourraient « paralyser Anthropic », en particulier l’utilisation par Hegseth d’une autorité militaire rare qui cible généralement les adversaires étrangers.
« Rien dans la loi applicable ne soutient la notion orwellienne selon laquelle une entreprise américaine peut être qualifiée d’adversaire potentiel et de saboteur des États-Unis pour avoir exprimé son désaccord avec le gouvernement », a écrit Lin.
La décision de Lin fait suite à une audience de 90 minutes devant un tribunal fédéral de San Francisco mardi au cours de laquelle Lin a demandé pourquoi l’administration Trump avait pris la mesure extraordinaire de punir Anthropic après l’échec des négociations du contrat de défense en raison de la tentative de l’entreprise d’empêcher le déploiement de sa technologie d’intelligence artificielle dans des armes entièrement autonomes ou dans la surveillance des Américains.
Anthropic avait demandé à Lin d’émettre une ordonnance d’urgence pour supprimer une stigmatisation qui, selon la société, avait été appliquée de manière injustifiée dans le cadre d’une « campagne illégale de représailles » qui a incité la société basée à San Francisco à poursuivre l’administration Trump en justice au début du mois. Le Pentagone avait fait valoir qu’il devrait pouvoir utiliser Claude de toutes les manières qu’il juge légales.
Lin a déclaré que sa décision ne concernait pas ce débat de politique publique mais les actions du gouvernement en réponse à celui-ci.
“Si le problème concerne l’intégrité de la chaîne de commandement opérationnelle, le ministère de la Guerre pourrait simplement cesser d’utiliser Claude. Au lieu de cela, ces mesures semblent conçues pour punir Anthropic”, a écrit Lin.
Anthropic a également déposé une plainte distincte, plus restreinte, qui est toujours en instance devant la cour d’appel fédérale de Washington, DC.
Lin a écrit que sa commande avait été retardée d’une semaine et n’obligeait pas le Pentagone à utiliser les produits d’Anthropic ni à empêcher sa transition vers d’autres fournisseurs d’IA.
En 2001, Fortune a réuni pour la première fois « Les personnes les plus intelligentes que nous connaissons », réunissant des PDG et des fondateurs, des bâtisseurs et des investisseurs, des penseurs et des entrepreneurs. Depuis lors, Fortune Brainstorm Tech est le lieu où se rencontrent des idées audacieuses. Du 8 au 10 juin, nous retournerons à Aspen, là où tout a commencé, pour commémorer les 25 ans de Brainstorm. Inscrivez-vous maintenant.



