
Ce décalage, insiste David Sacks, n’est pas dû au fait que l’IA menace leur emploi, leur vie privée et l’avenir de l’économie elle-même. Non, selon l’investisseur en capital-risque devenu conseiller de Trump, tout cela fait partie d’un complot d’un milliard de dollars mené par ce qu’il appelle le « Complexe industriel Doomer », un réseau obscur de milliardaires altruistes efficaces financé par des personnes comme le fondateur de FTX condamné, Sam Bankman Fried, et le co-fondateur de Facebook, Dustin Moskovitz.
Dans un article X cette semaine, Sacks a soutenu que la méfiance du public à l’égard de l’IA n’est pas du tout organique : elle est fabriquée. Il a souligné les recherches menées par Nirit Weiss-Blatt, spécialiste de la culture technologique, qui a passé des années à cartographier l’écosystème « doom de l’IA » composé de groupes de réflexion, d’organisations à but non lucratif et de futuristes.
Weiss-Blatt documente des centaines de groupes promouvant une réglementation stricte, voire des moratoires, sur les systèmes d’IA avancés. Elle maintient qu’une grande partie de l’argent derrière ces organisations peut être attribuée à un petit cercle de donateurs du mouvement Effective Altruism, notamment le co-fondateur de Facebook Dustin Moskovitz, Jaan Tallinn de Skype, le créateur d’Ethereum Vitalik Buterin et le fondateur condamné de FTX, Sam Bankman-Fried.
Selon Weiss-Blatt, ces philanthropes ont collectivement investi plus d’un milliard de dollars dans des efforts visant à étudier ou à atténuer le « risque existentiel » de l’IA. Cependant, il a désigné l’organisation de Moskovitz, Open Philanthropy, comme étant « de loin » le plus grand donateur.
L’organisation a fermement rejeté l’idée selon laquelle elle projetait des scénarios pessimistes de type science-fiction.
“Nous pensons que la technologie et les progrès scientifiques ont considérablement amélioré le bien-être humain, c’est pourquoi une grande partie de notre travail se concentre sur ces domaines”, a déclaré un porte-parole d’Open Philanthropy à Fortune. « L’IA a un énorme potentiel pour accélérer la science, stimuler la croissance économique et élargir les connaissances humaines, mais elle pose également des risques sans précédent, un point de vue partagé par les dirigeants de tout le spectre politique. Nous soutenons un travail réfléchi et non partisan pour aider à gérer ces risques et à réaliser les énormes avantages potentiels de l’IA.
Mais Sacks, qui entretient des liens étroits avec la communauté des startups de la Silicon Valley et a été l’un des premiers dirigeants de PayPal, affirme que le financement d’Open Philanthropy a fait plus que simplement avertir des risques : il a financé une campagne mondiale de relations publiques mettant en garde contre l’IA « divine ». Il a cité des enquêtes montrant que 83 % des personnes interrogées en Chine considèrent que les avantages de l’IA l’emportent sur ses inconvénients (contre seulement 39 % aux États-Unis) comme preuve que ce qu’il appelle « l’argent de la propagande » a remodelé le débat américain.
Sacks milite depuis longtemps en faveur d’une approche de l’IA (et de la technologie en général) favorable à l’industrie et sans réglementation, dans le cadre de la course pour vaincre la Chine.
La société de capital-risque de Sacks, Craft Ventures, n’a pas immédiatement répondu à une demande de commentaires.
Qu’est-ce que l’altruisme efficace ?
L’« argent de la propagande » auquel Sacks fait référence provient en grande partie de la communauté de l’Altruisme Efficace (EA), un groupe instable d’idéalistes, de philosophes et de milliardaires technologiques qui croient que le devoir moral le plus élevé de l’humanité est de prévenir de futures catastrophes, y compris l’IA malveillante.
Le mouvement EA, fondé il y a dix ans par les philosophes d’Oxford William MacAskill et Toby Ord, encourage les donateurs à utiliser les données et la raison pour faire le plus de bien possible.
Ce cadre a conduit certains membres à se concentrer sur le « long terme », l’idée selon laquelle la prévention des risques existentiels comme les pandémies, les guerres nucléaires ou l’IA malveillante devrait avoir la priorité sur les causes à court terme.
Alors que certaines organisations alignées sur l’EA préconisent une réglementation stricte de l’IA ou même des « pauses » dans le développement de modèles, d’autres, comme Open Philanthropy, adoptent une approche plus technique et financent des recherches d’alignement dans des entreprises comme OpenAI et Anthropic. L’influence du mouvement s’est rapidement développée avant l’effondrement de FTX en 2022, dont le fondateur Bankman-Fried avait été l’un des plus grands bienfaiteurs d’EA.
Matthew Adelstein, un étudiant de 21 ans qui s’est distingué en matière de Substack chez EA, note que le paysage est loin de la machine monolithique décrite par Sacks. La propre carte de Weiss-Blatt de « l’écosystème des risques existentiels de l’IA » comprend des centaines d’entités distinctes (des laboratoires universitaires aux organisations à but non lucratif en passant par les blogs) qui partagent un langage similaire mais pas nécessairement une coordination. Cependant, Weiss-Blatt en déduit que même si « l’écosystème gonflé » n’est pas « un mouvement populaire, c’est un mouvement descendant ».
Adelstein n’est pas d’accord, notant que la réalité est « plus fragmentée et moins sinistre » que celle décrite par Weiss-Blatt et Sacks.
“La plupart des craintes que les gens ont à propos de l’IA ne sont pas celles dont parlent les milliardaires”, a déclaré Adelstein à Fortune. “Les gens s’inquiètent davantage de la tricherie, des préjugés et de la perte d’emploi (dommages immédiats) que du risque existentiel.”
Il affirme que cibler les riches donateurs n’a absolument aucun sens.
“L’intelligence artificielle présente des risques très sérieux”, a-t-il déclaré. “Même les développeurs d’IA pensent qu’il existe un faible pourcentage de chances que cela puisse provoquer l’extinction de l’humanité. Le fait que certains riches conviennent qu’il s’agit d’un risque sérieux n’est pas un argument contre cela.”
Pour Adelstein, le long terme n’est pas une obsession sectaire des futurs lointains, mais un cadre pragmatique pour évaluer les risques mondiaux.
“Nous développons une IA très avancée, confrontés à de graves risques nucléaires et biologiques, et le monde n’est pas préparé”, a-t-il déclaré. “Le long terme veut simplement dire que nous devrions faire davantage pour les prévenir.”
Il a également rejeté les accusations selon lesquelles EA serait devenu un mouvement quasi religieux.
“J’aimerais voir une secte qui se consacre à faire preuve d’altruisme de manière efficace et à sauver 50 000 vies par an”, a-t-il déclaré en riant. “Ce serait une sorte de culte.”



