L’accord OpenAI avec le Pentagone soulève de nouvelles questions sur l’IA et la surveillance | Fortune

Vendredi, quelques heures seulement après avoir publiquement soutenu son rival Anthropic pour sa fermeté face aux demandes du Pentagone, le PDG d’OpenAI, Sam Altman, a annoncé que sa société avait conclu son propre accord avec le ministère de la Défense. Cette décision est intervenue peu de temps après que le gouvernement américain a pris la mesure très inhabituelle de désigner Anthropic comme un « risque pour la chaîne d’approvisionnement ».

La décision d’OpenAI a suscité les critiques de nombreux chercheurs en IA et experts en politique technologique, même si OpenAI a déclaré avoir atteint les limites de son accord sur la surveillance des citoyens américains et les armes mortelles autonomes qu’Anthropic voulait dans son contrat mais que le Pentagone avait rejeté.

L’un des principaux points de discorde était la surveillance de masse au niveau national. Les experts avertissent depuis longtemps que l’IA avancée est capable de prendre des données dispersées et individuellement inoffensives (comme la localisation d’une personne, ses finances, son historique de recherche) et de les assembler dans une image complète de la vie de toute personne, automatiquement et à grande échelle. Le PDG d’Anthropic, Dario Amodei, a déclaré que ce type de surveillance de masse basée sur l’IA présente des risques sérieux et nouveaux pour les « libertés fondamentales » des personnes et que « la loi n’a pas encore rattrapé les capacités de l’IA en croissance rapide ».

Mais bien qu’OpenAI ait déclaré dans un article de blog avoir conclu un accord avec le Pentagone selon lequel sa technologie ne serait pas utilisée pour la surveillance intérieure de masse ou pour des systèmes d’armes autonomes directs, les deux limites strictes qu’Anthropic avait refusé d’abandonner, certains experts juridiques et politiques ont soulevé des questions sur une éventuelle lacune dans la loi.

Une partie du différend tourne autour de la légalité obscure de l’analyse à grande échelle des données américaines, qui est légale en vertu des lois américaines actuelles, même si elle semble impossible à distinguer de la surveillance de masse.

“À l’heure actuelle, en vertu de la loi américaine, il est légal pour les autorités gouvernementales d’acheter des informations disponibles dans le commerce auprès de courtiers en données et d’autres tiers”, a déclaré Samir Jain, vice-président des politiques au Centre pour la démocratie et la technologie. “Si vous achetez des quantités massives de données et autorisez l’IA à les analyser, vous pouvez en fait vous retrouver dans une surveillance massive des Américains par le biais de ce processus. Ce n’est actuellement ni restreint ni interdit par la loi.”

OpenAI affirme que ses « lignes rouges » s’appliquent aux systèmes techniques qu’elle envisage de construire, ainsi qu’au libellé de son contrat avec le Pentagone. Selon un blog publié par l’entreprise, le contrat autorise le ministère de la Défense à utiliser l’IA « à toutes fins légales, conformément à la loi applicable, aux exigences opérationnelles et aux protocoles de sécurité et de surveillance bien établis », tout en interdisant explicitement la surveillance illimitée des informations privées des Américains.

Le problème est que ce qui est considéré comme « légal » peut changer. Le contrat OpenAI cible les lois existantes et les politiques du ministère de la Défense, mais ces politiques pourraient changer à l’avenir. “Rien dans ce qu’ils ont publié n’empêcherait que ces politiques soient modifiées à l’avenir”, a déclaré Jain.

Certains critiques affirment que les autorités de renseignement existantes autorisent déjà des formes de surveillance qu’OpenAI prétend interdire. Mike Masnick, fondateur du blog Techdirt, a écrit sur les réseaux sociaux que l’accord « autorise absolument la surveillance intérieure », en faisant référence au décret 12333, une autorité de longue date qui permet aux agences de renseignement de collecter des communications en dehors des États-Unis, qui peuvent inclure des données américaines lorsqu’elles sont acquises accidentellement.

Une partie du débat se concentre sur des parties spécifiques du droit américain qui régissent différentes activités de sécurité nationale. Les actions de l’armée américaine sont généralement régies par le titre 10 du Code fédéral des États-Unis. Cela inclut le travail effectué par la Defense Intelligence Agency et le US Cyber ​​​​Command pour soutenir les opérations militaires. Mais une partie du travail de la DIA relève d’une autre partie de la loi américaine, le Titre 50 du Code américain, qui régit généralement la collecte de renseignements et les actions secrètes. Le travail de la Central Intelligence Agency et de la National Security Agency relève généralement également du Titre 50. Certaines des activités les plus sensibles du Titre 50, en particulier les actions secrètes, se déroulent en grande partie dans les coulisses et nécessitent une décision présidentielle.

Dans un article de blog publié ce week-end, OpenAI a partagé une description détaillée de son accord avec le Pentagone, et selon un article sur les réseaux sociaux du célèbre chercheur d’OpenAI Noam Brown, la responsable des partenariats de sécurité nationale de l’entreprise, Katrina Mulligan, a déclaré à Brown que le contrat d’OpenAI ne couvre pas le travail du titre 50 effectué par la communauté du renseignement, une source d’inquiétude majeure pour les critiques. Les représentants d’OpenAI n’ont pas immédiatement répondu à une demande de commentaires de Fortune.

Mais les juristes ont noté que la distinction entre les activités du Titre 10 et du Titre 50 est de plus en plus floue. En pratique, les deux peuvent sembler très similaires et peuvent impliquer l’analyse de données sur des acteurs étrangers ou le suivi de modèles. Mais ce chevauchement crée une zone grise pour des entreprises comme OpenAI : un contrat qui interdit les travaux du Titre 50 n’empêche pas automatiquement les agences du Titre 10 comme la DIA d’utiliser l’IA pour analyser des ensembles de données disponibles dans le commerce ou non classifiés.

“S’ils disent que leur système ne peut être utilisé pour aucune activité du Titre 50, cela restreint la portée des activités pour lesquelles le système d’IA peut être utilisé”, a déclaré Jain. “Mais cela ne résout pas le problème.”

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici