OpenAI négocie avec le gouvernement américain, a déclaré Sam Altman au personnel | Fortune

OpenAI négocie avec le gouvernement américain, a déclaré Sam Altman au personnel | Fortune

Sam Altman a déclaré aux employés d’OpenAI lors d’une réunion à tous vendredi après-midi qu’un éventuel accord était en train d’être conclu avec le département américain de la Guerre pour utiliser les modèles et outils d’IA de la startup, selon une source présente à la réunion et un résumé de la réunion vu par Fortune. Le contrat n’a pas encore été signé.

La réunion a eu lieu à la fin d’une semaine au cours de laquelle un conflit entre le secrétaire à la Guerre Pete Hegseth et le rival d’OpenAI, Anthropic, a dégénéré en acrimonie publique, se terminant par la fin apparente des contrats d’Anthropic avec le Pentagone et le gouvernement fédéral en général.

Altman a déclaré que le gouvernement était prêt à permettre à OpenAI de construire sa propre « pile de sécurité » (c’est-à-dire le système en couches de contrôles techniques, politiques et humains qui se situent entre un modèle d’IA puissant et son utilisation dans le monde réel) et que si le modèle refuse d’accomplir une tâche, alors le gouvernement ne forcerait pas OpenAI à l’obliger à accomplir cette tâche.

OpenAI garderait le contrôle sur la manière dont les protections techniques sont mises en œuvre, quels modèles sont déployés et où, et limiterait le déploiement aux environnements cloud plutôt qu’aux « systèmes de pointe ». (Dans un contexte militaire, les systèmes de pointe sont une catégorie qui pourrait inclure les avions et les drones.) Dans ce qui serait une concession majeure, Altman a déclaré aux employés que le gouvernement s’est déclaré prêt à inclure les soi-disant « lignes rouges » d’OpenAI dans le contrat, notamment l’absence d’utilisation de l’IA pour alimenter des armes autonomes, l’absence de surveillance de masse nationale et l’absence de prise de décision critique.

OpenAI et le ministère de la Guerre n’ont pas immédiatement répondu aux demandes de commentaires.

Sasha Baker, responsable de la politique de sécurité nationale d’OpenAI, et Katrina Mulligan, qui dirige la sécurité nationale d’OpenAI pour le gouvernement, ont également pris la parole à OpenAI, selon la source. L’un de ces responsables a déclaré que la relation entre Anthropic et le gouvernement s’était rompue parce que le PDG et co-fondateur d’Anthropic, Dario Amodei, avait offensé les dirigeants du ministère de la Guerre, notamment en publiant des articles de blog que « le ministère n’aimait pas ».

Anthropic, une société fondée par des personnes qui ont quitté OpenAI pour des raisons de sécurité, était le seul grand fabricant commercial d’IA dont les modèles avaient été approuvés pour une utilisation au Pentagone, dans le cadre d’un déploiement réalisé grâce à un partenariat avec Palantir. Mais la direction d’Anthropic et le Pentagone sont en conflit depuis plusieurs jours sur les limitations qu’Anthropic voulait imposer à l’utilisation de sa technologie. Ces limitations sont essentiellement les mêmes que celles que Altman a déclaré que le Pentagone respecterait s’il utilisait la technologie OpenAI.

Anthropic avait rejeté les demandes du Pentagone de supprimer les garanties de son modèle Claude qui restreignent des utilisations telles que la surveillance de masse nationale ou les armes entièrement autonomes, même si les responsables de la défense insistaient sur le fait que les modèles d’IA devaient être disponibles à « toutes fins légales ». Le Pentagone, y compris le secrétaire à la Guerre Pete Hegseth, avait averti Anthropic qu’il pourrait perdre un contrat d’une valeur pouvant atteindre 200 millions de dollars s’il ne se conformait pas. Altman a déjà déclaré qu’OpenAI partageait les « lignes rouges » d’Anthropic en limitant certaines utilisations militaires de l’IA, soulignant que même si OpenAI négocie avec le gouvernement américain, elle est confrontée à la même tension fondamentale qui se joue aujourd’hui publiquement entre Anthropic et le Pentagone.

L’intervention d’OpenAI est intervenue juste après que le président Trump a annoncé que le gouvernement fédéral cesserait de travailler avec Anthropic, dans le cadre d’une escalade dramatique du conflit entre le gouvernement et l’entreprise au sujet de ses modèles d’IA.

“J’ordonne à toutes les agences fédérales du gouvernement des États-Unis de cesser immédiatement toute utilisation de la technologie d’Anthropic. Nous n’en avons pas besoin, nous n’en voulons pas, et nous ne ferons plus affaire avec elles !” » Trump a déclaré dans un article sur Truth Social. Le ministère de la Guerre et d’autres agences qui utilisent les modèles Claude d’Anthropic bénéficieront d’une période de suppression progressive de six mois, a-t-il déclaré.

Lors de la réunion d’OpenAI, il a été dit au personnel que l’aspect le plus difficile de l’accord pour les dirigeants résidait dans les préoccupations concernant la surveillance étrangère, et que l’on craignait sérieusement que la surveillance basée sur l’IA ne menace la démocratie, selon la source. Cependant, les dirigeants d’entreprises semblent également reconnaître la réalité selon laquelle les gouvernements espionnent leurs adversaires à l’échelle internationale, reconnaissant les affirmations selon lesquelles les responsables de la sécurité nationale « ne peuvent pas faire leur travail » sans capacités de surveillance internationale. Des références ont été faites à des rapports de renseignement sur les menaces montrant que la Chine utilisait déjà des modèles d’intelligence artificielle pour cibler les dissidents à l’étranger.

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici