
Selon OpenAI, le monde doit tout repenser, du système fiscal à la durée de la journée de travail, pour se préparer aux changements radicaux de la technologie de la superintelligence, le point auquel les systèmes d’IA sont capables de surpasser les humains les plus intelligents.
Lundi, dans un article de 13 pages intitulé « La politique industrielle à l’ère de l’intelligence », OpenAI a déclaré vouloir « démarrer » la conversation avec une « liste d’idées politiques qui donnent la priorité aux gens ». Cependant, la confiance accordée aux paroles et aux motivations d’OpenAI semble être l’une des questions clés parmi de nombreuses personnes qui lisent l’article. Le document a été publié le jour même où le New Yorker publiait les résultats d’une enquête d’un an et demi sur OpenAI qui soulevait des questions sur la fiabilité du PDG Sam Altman sur plusieurs questions, notamment la sécurité de l’IA.
Rédigé par l’équipe des affaires mondiales d’OpenAI, le document décrit bon nombre des impacts économiques attendus de la superintelligence et propose plusieurs approches pour y répondre. « Nous ne les proposons pas comme un ensemble complet ou final de recommandations, mais comme un point de départ pour une discussion que nous invitons les autres à développer, affiner, contester ou choisir à travers le processus démocratique », indique le billet d’introduction du blog.
La « liste d’idées » autoproclamée contenue dans le document (qui va du financement public à des semaines de travail plus courtes) ne contribuera peut-être pas à rassurer un public de plus en plus nerveux et désillusionné face au rythme et aux conséquences du changement induit par l’IA. Et OpenAI, bien sûr, est l’une des parties les moins neutres dans cette discussion en cours, qui est la tension centrale du document, a déclaré Lucía Velasco, économiste principale et responsable de la politique en matière d’IA à la Banque interaméricaine de développement basée à Washington et ancienne responsable de la politique en matière d’IA au Bureau des Nations Unies pour les technologies numériques et émergentes.
“OpenAI est la partie la plus intéressée par l’issue de cette conversation, et les propositions qu’elle présente façonnent un environnement dans lequel OpenAI opère avec une grande liberté sous des contraintes qu’elle a largement contribué à définir”, a-t-il déclaré, ajoutant que ce n’était pas une raison pour jeter le papier, mais “c’est une raison pour garantir que la conversation qu’elle tente d’entamer ne se termine pas avec la même entreprise qui l’a commencée”.
Il a néanmoins souligné qu’OpenAI avait raison de dire que les gouvernements étaient en retard dans l’avancement des solutions politiques. “La majorité considère toujours l’IA comme un problème technologique alors qu’en réalité il s’agit d’un changement économique structurel qui nécessite une politique industrielle appropriée”, a-t-il déclaré. “C’est une contribution utile et le document mérite d’être pris au sérieux en tant qu’exercice d’établissement d’un agenda, même s’il constitue un point de départ.”
Soribel Feliz, conseiller indépendant en politique de l’IA qui était auparavant conseiller principal en politique de l’IA et de la technologie au Sénat américain, a convenu qu’OpenAI mérite le mérite d’avoir « mis cela sur papier ». Reconnaître que les institutions américaines et les réseaux de sécurité prennent du retard dans le développement et le déploiement de l’IA est une bonne chose, a-t-il déclaré, « et la conversation doit avoir lieu à ce niveau dès maintenant ».
Cependant, il a souligné que la plupart de ce qui est proposé n’est pas nouveau : « Certains de ces piliers (« partager largement la prospérité, atténuer les risques, démocratiser l’accès ») ont été le cadre de toutes les conversations majeures sur la gouvernance de l’IA depuis la sortie de ChatGPT en novembre 2022.
“J’ai travaillé au Sénat américain en 2023-2024, et nous avons eu neuf sessions du forum politique sur l’IA où tout cela a été dit. Je l’ai dans mes notes manuscrites ! Tout cela a déjà été dit, tout cela”, a-t-il écrit à Fortune dans un message direct. “Le langage autour des partenariats public-privé, de la maîtrise de l’IA et de la voix des travailleurs semble tout droit sorti d’un rapport sur le cadre politique de l’IA de l’UNESCO ou de l’OCDE. Les idées ne sont pas fausses. Le problème réside dans l’écart entre la formulation des solutions et la construction de véritables mécanismes pour les atteindre.”
De toute évidence, le public cible n’est pas constitué de centaines de millions d’utilisateurs hebdomadaires de ChatGPT. Au lieu de cela, ce sont les décideurs politiques de Beltway qui ont fait pression en faveur d’une réglementation de l’IA (ou l’ont retardé) de diverses manières depuis le lancement de ChatGPT en novembre 2022. En ce sens, certains ont déclaré que cela représentait une amélioration par rapport aux efforts précédents.
“J’ai trouvé que ce document constituait une réelle amélioration par rapport aux documents précédents qui étaient encore plus fluides et de haut niveau”, a déclaré Nathan Calvin, vice-président des affaires d’État et avocat général chez Encode AI. “Je pense que certaines des suggestions concrètes concernant des choses comme les audits ou les rapports d’incidents et les restrictions gouvernementales sur certaines utilisations de l’IA sont de bonnes idées.”
Mais il a également souligné les efforts de lobbying menés par les dirigeants d’OpenAI auprès du PAC Leading the Future, qui milite en faveur de politiques favorables à l’industrie de l’IA. Le chef des affaires mondiales, Chris Lehane, est considéré comme une force derrière ces efforts, tandis que le président Greg Brockman est le plus grand donateur.
« J’espère que ce document marque une évolution vers un engagement plus constructif, plutôt que d’attaquer les politiciens qui défendent les mêmes politiques que celles soutenues aujourd’hui par OpenAI », a déclaré Calvin, soulignant spécifiquement le lobbying de Leading the Future contre le candidat au Congrès de New York, Alex Bores, l’auteur et principal sponsor du RAISE Act, la loi de New York sur la sécurité et la transparence de l’IA récemment signée par la gouverneure Kathy Hochul.
Calvin a également accusé OpenAI d’utiliser des tactiques d’intimidation pour saper le SB 53 de Californie, le California Border AI Transparency Act, alors qu’il était encore en débat. Il a également allégué qu’OpenAI avait utilisé sa bataille juridique en cours avec Elon Musk comme prétexte pour attaquer et intimider les critiques, y compris Encode, qui, selon la société, était secrètement financé par Musk.
Pourtant, bien que le PDG d’OpenAI, Sam Altman, ait comparé la série d’idées politiques de lundi au New Deal dans une interview avec Axios, certains disent que cela ressemble moins à une législation de l’ère FDR qu’à une expérience de pensée de la Silicon Valley qui ne se transformera pas comme par magie en action.
Par exemple, Anton Leicht, chercheur invité au sein de l’équipe de technologie et d’affaires internationales du Carnegie Endowment, a écrit dans “Ils ne vont pas simplement émerger comme une alternative organique”, a-t-il écrit. “En ce sens, il s’agit d’un effort de communication visant à dissimuler le nihilisme réglementaire.”
Une meilleure version de cela, a-t-il dit, serait de réorienter le financement politique et les compétences de lobbying de l’industrie de l’IA pour faire avancer ce type d’agenda politique. Cependant, il a déclaré que la « nature et le calendrier vagues » du document « ne me rendent pas trop optimiste ».



