En plein milieu du différend en cours entre Anthropic, société d’intelligence artificielle de la Silicon Valley, et le ministère américain de la Défense, sur la question de savoir si l’armée utilisera (ou non) les grands modèles de langage d’Anthropic, se trouve une autre société : Palantir.
Palantir, la plateforme d’intelligence artificielle et d’analyse de données basée à Miami, est un fournisseur de logiciels clé pour le ministère de la Défense et le principal canal par lequel le ministère utilise le grand modèle de langage d’Anthropic, Claude.
“Nous sommes légitimement toujours au milieu de tout cela”, a déclaré jeudi le PDG Alex Karp dans une interview accordée à Fortune en marge de la conférence semestrielle AIP de l’entreprise. “C’est notre stack qui exécute les LLM.”
Karp dit qu’il a eu de nombreuses conversations avec toutes les parties impliquées, discussions sur lesquelles il a refusé de donner des détails, affirmant qu’il ne voulait pas « attiser les conversations » ou « attaquer les gens ».
Mais Karp tient à préciser une chose : le ministère de la Défense n’utilise pas l’IA pour la surveillance de masse des citoyens américains et, à sa connaissance, n’a pas l’intention de le faire.
“Sans commenter les dialogues internes, nous n’avons jamais eu l’impression que ces produits seraient utilisés à l’échelle nationale”, a déclaré Karp. “Le ministère de la Guerre n’envisage pas d’utiliser ces produits au niveau national. C’est une tout autre affaire… Les conditions souhaitées par le ministère de la Guerre sont entièrement axées sur les citoyens non américains dans un contexte de guerre.”
Palantir a de vastes activités pour le gouvernement américain, notamment pour le ministère de la Défense. Anthropic s’est associé à Palantir en 2024 pour proposer sa technologie d’IA au ministère de la Défense via Palantir. Anthropic a également commencé à travailler directement avec le ministère de la Défense l’année dernière pour créer une version de sa technologie conçue pour le ministère de la Défense.
Les échanges controversés entre Anthropic et le ministère de la Défense durent depuis janvier environ, et les deux parties ne parviennent pas à s’entendre sur ce qui les a déclenchés. Les déclarations faites la semaine dernière par le sous-secrétaire à la Défense pour la recherche et l’ingénierie, Emil Michael, ont affirmé que Palantir avait informé le Pentagone qu’Anthropic demandait si ses modèles avaient été utilisés pour la mission militaire américaine visant à capturer le président vénézuélien Nicolas Maduro. (Anthropic a réfuté cette affirmation, déclarant qu’elle n’avait pas discuté de l’utilisation de Claude pour des opérations spécifiques “avec des partenaires industriels, y compris Palantir, en dehors des discussions de routine sur des questions strictement techniques.”) Depuis lors, les deux parties se sont battues pour savoir si Anthropic pouvait fixer des limites contractuelles sur la façon dont ses modèles sont utilisés.
Le PDG d’Anthropic, Dario Amodei, a publié plusieurs articles de blog sur le sujet, y compris une première déclaration fin février affirmant que le ministère de la Défense avait refusé d’accepter l’assurance que ses LLM ne seraient pas utilisés pour la surveillance de masse nationale ou le déploiement d’armes entièrement autonomes. Pete Hegseth, secrétaire à la Défense, a ensuite désigné Anthropic comme un « risque lié à la chaîne d’approvisionnement », ce qui a menacé de nombreuses relations commerciales de l’entreprise et a conduit Anthropic à poursuivre le Pentagone en justice pour cette désignation.
“Tout à fait favorable” aux conditions d’engagement internes
Cependant, les groupes de défense des libertés civiles continuent d’accuser l’entreprise de faire le contraire : aider le gouvernement à effectuer des opérations de surveillance. Les relations de l’entreprise avec les services d’immigration et de douane des États-Unis, en particulier, qui ont débuté sous l’administration Obama, ont suscité un examen minutieux et des critiques de la part de critiques extérieurs et des propres employés de l’entreprise, critiques qui ne se sont intensifiées qu’au cours de l’année écoulée alors que l’administration Trump a poussé l’ICE à mener une répression agressive dans des villes comme Minneapolis.
Karp a déclaré à Fortune qu’il « comprend très bien les arguments contre l’utilisation de ces produits aux États-Unis » et s’est dit « fortement favorable » à la définition de termes d’engagement et de limites sur la manière dont les agences nationales peuvent utiliser l’intelligence artificielle.
“Franchement, je pense que nous devrions les imposer nous-mêmes”, a déclaré Karp à propos de ces termes de compromis. « La Vallée devrait avoir un consortium : c’est ce que nous allons faire et c’est ce que nous n’allons pas faire », a-t-il déclaré.
Mais Karp a établi une distinction claire entre la question de savoir si les entreprises technologiques devraient définir leurs conditions avec les agences nationales et si elles devraient les définir avec le ministère de la Défense, qui se concentre principalement sur la gestion des relations des États-Unis avec d’autres pays et leurs adversaires.
“Ce dont nous parlons maintenant, c’est d’utiliser des produits face à quelqu’un qui tente de tuer nos militaires”, a déclaré Karp, soulignant qu’il soutenait personnellement une “large licence” d’utilisation spécifiquement pour le ministère de la Défense.
“Si nous savions que la Chine, la Russie et l’Iran ne les construiraient pas, je serais favorable à des restrictions juridiques très strictes”, a déclaré Karp. Mais il note que les adversaires américains les construiront et les utiliseront de toute façon contre les États-Unis. “Je ne pense pas que ce soit une opinion. Je pense que c’est un fait, et ce fait signifie que je pense que le ministère de la Guerre devrait avoir une large licence pour utiliser ces produits.”


