L’attaque de Trump contre l’Iran et la nouvelle génération de guerres contre l’IA signifient que les bombes peuvent tomber plus vite que la vitesse de la pensée | Fortune

L’IA est entrée dans la salle de guerre et ne va nulle part de si tôt, selon les experts.

Bien que le président Donald Trump ait demandé aux agences fédérales et aux sous-traitants militaires de cesser de faire affaire avec Anthropic, l’armée américaine aurait utilisé le modèle d’intelligence artificielle de l’entreprise, Claude, dans son attaque contre l’Iran, selon le Wall Street Journal.

Aujourd’hui, certains experts expriment leurs inquiétudes quant à l’utilisation de l’IA dans les opérations de guerre. “La machine IA fait des recommandations sur les cibles à attaquer, ce qui est en fait beaucoup plus rapide à certains égards que la vitesse de la pensée”, a déclaré au Guardian Craig Jones, auteur de The War Lawyers: The United States, Israel, and Juridical Warfare, qui examine le rôle des avocats militaires dans la guerre moderne.

Dans une conversation avec Fortune, Jones, professeur de guerre et de conflits à l’Université de Newcastle, a déclaré que l’IA avait considérablement accéléré la « chaîne de destruction », réduisant ainsi le temps écoulé entre l’identification initiale de la cible et la destruction finale. Il a déclaré que les attaques américaines et israéliennes contre l’Iran, qui ont entraîné la mort de l’ayatollah Ali Khamenei, n’auraient peut-être pas eu lieu sans l’IA.

“Il aurait été impossible, ou presque impossible, de procéder de cette façon”, a déclaré Jones à Fortune. “La rapidité avec laquelle elles ont été menées, ainsi que l’ampleur et le volume des attaques, je crois, sont rendues possibles par l’IA.”

Le Pentagone a fait appel à des sociétés d’intelligence artificielle pour accélérer et améliorer la planification de la guerre, établissant un partenariat avec Anthropic en 2024 qui s’est effondré la semaine dernière en raison de désaccords sur l’utilisation du modèle d’intelligence artificielle de l’entreprise, Claude. Mais OpenAI a rapidement signé un accord avec le Pentagone, et xAI d’Elon Musk a conclu un accord pour utiliser le modèle d’IA de l’entreprise, Grok, dans des systèmes classifiés. L’armée américaine utilise également un logiciel de la société d’exploration de données Palantir pour obtenir des informations basées sur l’IA à des fins de prise de décision.

L’IA sur le champ de bataille

Jones a déclaré que l’US Air Force utilisait la « vitesse de la pensée » comme référence pour le rythme de la prise de décision depuis des années. Il a déclaré que le temps écoulé entre la collecte de renseignements, tels que la reconnaissance aérienne, et l’exécution d’une mission de bombardement, pouvait prendre jusqu’à six mois pendant la Seconde Guerre mondiale et la guerre du Vietnam. L’IA a considérablement réduit ce délai.

Le rôle clé des outils d’IA dans la salle de crise est d’analyser rapidement de grandes quantités de données. “Nous parlons de téraoctets, de téraoctets et de téraoctets de données”, a déclaré Jones, “tout, depuis l’imagerie aérienne, l’intelligence humaine, l’intelligence Internet, le suivi des téléphones portables, n’importe quoi.”

Amir Husain, co-auteur de Hyperwar: Conflict and Competition in the AI ​​​​​​Century, a déclaré que l’IA est utilisée pour comprimer le cadre décisionnel de l’armée américaine, connu sous le nom de boucle OODA, acronyme pour observer, guider, décider et agir. Il a déclaré que l’IA joue déjà un rôle important dans l’observation ou l’interprétation des données électroniques et satellitaires, dans la prise de décision au niveau tactique et dans la phase « d’action », notamment grâce aux drones autonomes qui doivent fonctionner sans guidage humain lorsque les signaux sont brouillés. Certains de ces drones sont en fait des contrefaçons des drones autonomes iraniens Shahed.

L’IA est également apparue sur d’autres champs de bataille. Israël aurait utilisé l’IA pour identifier les cibles du Hamas pendant la guerre Israël-Hamas. Et les drones autonomes sont en première ligne de la guerre entre la Russie et l’Ukraine, la Russie et l’Ukraine employant toutes deux certaines variantes de technologies autonomes.

Multiplier les risques

Cependant, Jones a souligné un certain nombre de préoccupations concernant la guerre basée sur l’IA. “Le problème lorsque l’on ajoute l’IA est que les degrés d’erreur se multiplient, je dirais, par ordres de grandeur”, a déclaré Jones.

Certes, a déclaré Jones, l’erreur humaine existe avec ou sans technologie d’IA, citant l’invasion américaine de l’Irak en 2003 comme un conflit fondé sur une collecte de renseignements erronée. Mais il a déclaré que l’IA pourrait exacerber ces erreurs grâce à l’ampleur des données analysées par la technologie.

La guerre par l’IA soulève également un certain nombre de questions éthiques, principalement autour de la question de la responsabilité, ce que Husain a déclaré que les Conventions de Genève et les lois sur les conflits armés exigent déjà que les États se conforment. Alors que l’IA brouille la frontière entre la prise de décision au niveau humain et celle au niveau machine, il a déclaré que la communauté internationale doit veiller à ce que la responsabilité humaine soit attribuée à toutes les actions sur le champ de bataille.

“Les lois sur les conflits armés exigent que nous accusions la personne”, a déclaré Husain. “La personne doit être responsable, quel que soit le niveau d’automatisation utilisé sur le champ de bataille.”

spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici