« Tentative d’assassinat d’entreprise » : Anthropic et War Department se disputent devant le tribunal | Fortune

Les avocats du ministère de la Guerre et d’Anthropic se sont affrontés mardi devant un tribunal fédéral de Californie au sujet de la contestation d’Anthropic contre le Pentagone, la qualifiant de « risque de chaîne d’approvisionnement » pour la sécurité nationale et interdisant à tous les sous-traitants du gouvernement d’utiliser les nombreux outils d’intelligence artificielle de l’entreprise. Anthropic demande une ordonnance du tribunal empêchant l’exécution de cette ordonnance.

L’affaire, qui marque une première historique dans la mesure où le ministère de la Défense, officieusement rebaptisé Département de la Guerre (DOW) par l’administration Trump, a qualifié une entreprise dirigée par les États-Unis de risque pour la chaîne d’approvisionnement pour la sécurité nationale, trouve ses racines dans une négociation contractuelle qui s’est rapidement intensifiée. Le DOW souhaitait ajouter une clause générale de « toute utilisation légale » à ses contrats avec la société d’IA afin que l’armée puisse utiliser l’outil Claude d’Anthropic à des fins juridiques.

Le juge présidant l’affaire a exprimé des doutes quant à la large autorité exercée par le Pentagone dans cette affaire. La juge de district américaine Rita Lin a déclaré qu’elle se prononcerait sur la contestation judiciaire d’Anthropic « dans les prochains jours » et a passé l’audience de mardi à poser des questions aux parties sur leur désaccord.

Un débat houleux sur la manière d’utiliser l’IA

Lors des négociations contractuelles avec le Pentagone en février, Anthropic s’est opposé à la possibilité que l’armée utilise Claude pour une guerre autonome mortelle et une surveillance de masse des Américains, et a tenté d’insister sur des dispositions interdisant expressément une telle utilisation. Anthropic, dirigé par le fondateur Dario Amodei, a déclaré qu’il n’avait pas testé ces utilisations de manière approfondie et ne pensait pas qu’elles fonctionnaient en toute sécurité. Le DOW a déclaré que ces barrières étaient inacceptables et que les commandants militaires ont besoin de liberté pour prendre des décisions concernant les missions.

Le 27 février, le président Trump a publié sur Truth Social ordonnant à « TOUTES » les agences fédérales de « CESSER IMMÉDIATEMENT » toute utilisation des outils Anthropic. Le même jour dans un mail Le jour L’étiquette de risque est généralement réservée aux États-nations, aux adversaires étrangers et à d’autres menaces.

Anthropic a ensuite déposé une plainte le 9 mars, alléguant que le gouvernement « avait exercé des représailles contre elle » pour avoir exprimé son point de vue sur les garde-corps de sécurité et avait ainsi violé le premier amendement. Il a également affirmé que le gouvernement avait violé le processus établi dans la loi sur la procédure administrative et le droit à une procédure régulière du cinquième amendement.

Dans des écrits sur l’affaire et devant le tribunal mardi, le gouvernement a déclaré que les actions de l’administration étaient une réponse au refus d’Anthropic de mettre en œuvre certaines conditions de son contrat, et a soutenu que la liberté d’expression n’était pas en jeu dans cette affaire. Le procureur général adjoint Eric Hamilton a déclaré que le gouvernement dispose d’un pouvoir illimité pour déterminer avec quelles entreprises il conclura des contrats. Hamilton a déclaré que la conduite d’Anthropic avait soulevé des inquiétudes quant au fait que les futures mises à jour logicielles pourraient être utilisées comme un « coupe-circuit » pour empêcher l’IA de fonctionner dans les opérations militaires.

La juge de district Rita F. Lin était sceptique, décrivant l’affaire dans ses déclarations liminaires comme un « débat de politique publique fascinant » sur la position d’Anthropic par rapport aux besoins militaires du gouvernement, mais a déclaré que son rôle n’était pas « de décider qui a raison dans ce débat ».

Selon Lin, la véritable question que le tribunal devait trancher était de savoir si le gouvernement avait « violé la loi » en allant au-delà du simple fait de ne pas utiliser les services d’IA d’Anthropic et en trouvant un fournisseur d’IA plus autorisé avec lequel travailler.

“Après qu’Anthropic ait rendu public ce différend contractuel, les défendeurs ont semblé avoir une réaction assez importante”, a déclaré Lin.

Les réactions comprenaient l’interdiction à Anthropic d’avoir un contrat gouvernemental, l’interdiction à d’autres entités comme le National Endowment for the Arts de l’utiliser pour concevoir un site Web ; la directive de Hegseth selon laquelle quiconque souhaite faire des affaires avec l’armée américaine doit rompre ses relations commerciales avec Anthropic ; et désigner Anthropic comme un risque pour la chaîne d’approvisionnement.

“Ce qui m’inquiète à propos de ces réactions, c’est qu’elles ne semblent pas vraiment adaptées aux préoccupations exprimées en matière de sécurité nationale”, a déclaré Lin. Si le problème concerne la chaîne de commandement, DOW pourrait simplement cesser d’utiliser Claude et passer à autre chose, a-t-il déclaré.

« L’un des mémoires d’amicus utilisait le terme « tentative d’assassinat d’entreprise » », a-t-il ajouté. “Je ne sais pas s’il s’agit d’un meurtre, mais cela ressemble à une tentative de paralyser Anthropic. Et plus particulièrement, je m’inquiète de savoir si Anthropic est puni pour avoir critiqué la position contractuelle du gouvernement dans la presse.”

Les partis s’unissent derrière Anthropic

Les mémoires d’Amicus, ami du tribunal, dans l’affaire ont attiré diverses voix, notamment celles de Microsoft, d’officiers militaires à la retraite, ainsi que d’ingénieurs et de chercheurs d’OpenAI et de Google. Presque tous soutiennent la position d’Anthropic demandant une injonction sur la désignation de risque de chaîne d’approvisionnement.

Le rapport auquel Lin faisait référence provenait d’investisseurs et de la « Freedom Economy Business Association ». L’écrit faisait référence à une publication X écrite par Dean Ball, ancien conseiller politique principal de Trump pour l’IA et les technologies émergentes.

“Nvidia, Amazon et Google devront se débarrasser d’Anthropic si Hegseth parvient à ses fins”, a écrit Ball. “Il s’agit simplement d’une tentative d’assassinat d’entreprise. Je ne saurais recommander à aucun investisseur d’investir dans l’IA américaine ; je ne saurais recommander de créer une société d’IA aux États-Unis.”

La Fédération américaine des employés du gouvernement, un syndicat regroupant 800 000 travailleurs fédéraux, a déclaré dans son mémoire d’amicus que l’administration Trump avait l’habitude d’utiliser les préoccupations en matière de sécurité nationale comme prétexte pour exercer des représailles contre la liberté d’expression.

Microsoft a écrit qu’une interdiction d’Anthropic nuirait à ses propres activités et pourrait ralentir les futurs investissements et l’engagement de l’industrie de la défense en faveur de l’IA.

Le rapport de l’Organisation pour les droits de l’homme et la justice technologique ne prend pas position sur qui devrait gagner devant les tribunaux, mais s’oppose en termes généraux à l’IA militarisée et déclare que son utilisation pourrait entraîner des risques catastrophiques pour les droits de l’homme.

Lin a déclaré qu’il émettrait un avis cette semaine.

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici