
La dépendance du ministère de la Défense à l’égard de l’IA anthropique a été une révélation choquante qui a finalement conduit à un schisme dramatique, selon un haut responsable du Pentagone.
Emil Michael, sous-secrétaire à la recherche et à l’ingénierie du département ainsi que directeur de la technologie, a détaillé les événements qui ont conduit au conflit public dans un épisode du vendredi du podcast All-In.
Après le raid militaire américain au Venezuela début janvier qui a capturé le dictateur Nicolás Maduro, Anthropic a demandé à Palantir si son IA avait été utilisée dans l’opération. Alors qu’Anthropic a qualifié la recherche de routine, le Pentagone et Palantir l’ont interprétée comme une menace potentielle pour leur accès.
“Je me dis, merde, et si ce logiciel tombait en panne, qu’un garde-fou se levait, qu’un rejet se produisait pour le prochain combat comme celui-ci, et que nous laissions nos gens en danger ?” Michael se souvient. “Je suis donc allé voir le secrétaire Hegseth, je lui ai dit que cela allait se produire, et c’était comme un grand moment pour l’ensemble de la direction du Pentagone que nous soyons potentiellement si dépendants d’un fournisseur de logiciels sans autre alternative.”
Jusqu’à récemment, Claude d’Anthropic était le seul modèle d’IA autorisé dans les environnements classifiés. La startup basée à San Francisco s’est déclarée patriote et cherche à défendre les États-Unis, mais ne permettra pas que son IA soit utilisée dans la surveillance intérieure de masse ou dans les armes autonomes.
Le Pentagone a insisté sur le fait qu’il utiliserait l’IA dans des scénarios juridiques et a refusé de respecter les limites de l’entreprise qui dépasseraient ces limites.
Après avoir échoué à parvenir à un accord la semaine dernière, le président Donald Trump a ordonné au gouvernement fédéral de cesser d’utiliser Anthropic et a donné six mois au Pentagone pour l’éliminer progressivement. Le secrétaire à la Défense, Pete Hegseth, a également désigné l’entreprise comme présentant un risque pour la chaîne d’approvisionnement, ce qui signifie que les sous-traitants ne peuvent pas l’utiliser pour des travaux militaires.
Pour l’instant, l’armée continue d’utiliser Anthropic pendant la guerre américaine contre l’Iran, car l’IA aide les combattants à identifier rapidement des cibles potentielles.
Lors de son apparition sur le podcast, Michael a fait part de ses inquiétudes quant au fait qu’un développeur malveillant pourrait « empoisonner le modèle » pour le rendre inefficace pour l’armée, l’entraîner à avoir des hallucinations intentionnelles ou lui dire de ne pas suivre les instructions.
Il a ensuite contacté OpenAI, qui a finalement conclu un accord similaire à Anthropic. Le xAI d’Elon Musk a également été inclus dans le groupe classifié, tandis que le Pentagone tente d’obtenir que l’IA de Google soit également autorisée dans les paramètres classifiés.
“Je ne suis pas partial”, a déclaré Michael. “Je les aime tous. Je veux leur donner exactement les mêmes conditions parce que j’ai besoin de licenciement.”
Il a reconnu qu’Anthropic était devenu « profondément ancré » dans le département, alors que d’autres sociétés d’IA n’avaient pas recherché les entreprises clientes de manière aussi agressive en fournissant des ingénieurs déployés à l’avant.
Le différend entre le Pentagone et Anthropic a mis en lumière le choc des cultures entre l’establishment de la défense et la Silicon Valley, qui a ses racines dans les innovations militaires mais est depuis devenue réticente à l’idée de voir sa technologie utilisée à des fins de guerre.
En fait, un ingénieur en robotique de premier plan chez OpenAI a annoncé samedi sa démission de l’entreprise, citant les mêmes préoccupations soulevées par Anthropic.
“Cela n’a pas été une décision facile. L’IA a un rôle important dans la sécurité nationale. Mais la surveillance des Américains sans contrôle judiciaire et l’autonomie mortelle sans autorisation humaine sont des lignes qui méritaient plus de délibérations qu’elles n’en ont reçues”, a posté Caitlin Kalinowski sur X et LinkedIn.



