
Joseph Stiglitz affirme que l’IA ne se contentera pas de remodeler le travail et les marchés, mais qu’elle pourrira discrètement les informations dont dépendent ces systèmes. Alors que les grands modèles linguistiques (LLM) éliminent nos commentaires sarcastiques sur Reddit et nos voix marginales bruyantes sur les forums extrémistes, le lauréat du prix Nobel met en garde contre un monde où tout semble davantage axé sur les données, mais où les données sous-jacentes sont de plus en plus, eh bien, des « déchets ».
“Dans le cas de l’IA, je pense qu’il y a quelques problèmes plus profonds”, a déclaré l’économiste à Fortune. « Non seulement nous avons un problème sur le marché du travail… mais il y a un autre aspect à ce que j’appellerais les externalités d’information », que Stiglitz décrit simplement comme un « garbage in, garbage out » (GIGO).
Le risque n’est pas seulement la perte d’emplois ; Il s’agit d’une boucle de rétroaction rompue entre la vérité et les systèmes que nous utilisons pour interpréter la réalité : des marchés de prédiction aux modèles financiers en passant par le débat politique. Essentiellement, l’intelligence de l’IA dépend des informations qu’elle reçoit, et lorsqu’elle continue à collecter des informations imprécises, le résultat devient aussi déformé que les informations qu’elle a absorbées.
Selon lui, les modèles actuels reposent sur un accord erroné : ils suppriment voracement le journalisme, la recherche et les conversations en ligne, tout en sapant les institutions mêmes qui produisent en premier lieu des connaissances de haute qualité. Le résultat, craint-il, est un monde dans lequel les gens sont emportés par la rhétorique en ligne qu’ils voient perpétuée par l’IA (pensez à la crise du marché provoquée par un article de Citrini Research vantant le « PIB fantôme » ou l’essai apocalyptique viral sur l’IA de Matt Shumer) et non par un monde basé sur la réalité réelle.
L’IA « vole des informations » aux sources dont elle a besoin
Pourtant, a déclaré Stiglitz, l’IA n’a ni l’intérêt ni la capacité de produire de nouvelles informations de qualité. “Et le résultat de tout cela est qu’il existe un risque réel de détérioration de l’écosystème général de l’information.”
Si les meilleures sources d’information perdent progressivement leur financement tandis que les formes moins chères (comme les fils de commentaires, les mèmes partisans et les contenus nécessitant peu d’effort) prolifèrent, les données de formation se concentreront sur ce qui est le plus abondant et le moins cher, ce qui signifie que les chatbots régurgiteront massivement ce qu’ils prennent sur les forums en ligne.
C’est la première façon dont l’appétit de l’IA pour ce qui est en ligne peut se retourner contre lui : en cannibalisant les modèles commerciaux qui soutiennent un travail sérieux et en modifiant la combinaison de ce qui existe pour être jeté en premier lieu.
Déchets entrants, déchets sortants, à l’échelle industrielle
Stiglitz, qui fait référence à l’écosystème de l’information dans son livre de 2024, The Road to Freedom : Economics and the Good Society, a fait référence au cliché GIGO. « Si vous traitez et distribuez des déchets, tout ce que vous finissez par obtenir, ce sont des déchets : des déchets entrants, des déchets sortants, GIGO. »
L’expression est peut-être ancienne, mais Stiglitz dit qu’elle est toujours d’actualité. Les systèmes d’IA sont excellents pour traiter tout ce que nous leur donnons, mais ils ne sont pas aussi aptes à distinguer la connaissance du bruit. “Il existe un risque réel que, malgré le potentiel des nouvelles technologies pour améliorer l’écosystème de l’information dans des domaines critiques… nous puissions finir par nous retrouver dans une situation pire”, a-t-il déclaré. Plus il y a de déchets (affirmations non vérifiées, complots, campagnes astroturf, commentaires de mauvaise qualité), plus les déchets sont raffinés.
Il craint que les utilisateurs ne confondent ce vernis avec la vérité. “Ils penseront qu’ils ont obtenu des informations hautement traitées sans se rendre pleinement compte à quel point ils ne font que retraiter des déchets”, a-t-il déclaré. “Le traitement des déchets par l’IA ne remplace pas un seul bon document de recherche.”
Quand les anti-vaccins surpassent les scientifiques
Ce risque n’est nulle part plus évident que dans les coins les plus reculés d’Internet, où les opinions extrêmes sont souvent les plus bruyantes. Pensez à votre forum communautaire stéréotypé sur un certain sujet. Grâce à l’anonymat d’Internet, les utilisateurs sont plus que bienvenus pour exprimer leur opinion sur les dernières décisions politiques ou événements culturels. En conséquence, ces coins sont les domaines où la désinformation est la plus prolifique, et la science qui démystifie ces informations est peu ou pas mentionnée. Les vaccins constituent un parfait exemple d’étude de cas, estime Stiglitz.
“Les antivaxxeurs sont beaucoup plus actifs sur Internet que ceux qui affirment que les vaccins fonctionnent”, a-t-il déclaré. Les scientifiques effectuent des essais, publient des articles denses et passent à autre chose. Les théoriciens du complot inondent chaque jour les forums et les plateformes sociales.
“Il pourrait donc y avoir beaucoup plus d’articles contre ce vaccin que le seul article critique qui dit : ‘Voici la preuve du vaccin, et il fonctionne… Voici son efficacité'”, a expliqué Stiglitz. “Les IA d’aujourd’hui ont-elles la capacité de dire qu’un objet est tout ce dont nous avons besoin ? Ce n’est pas le cas.”
Pour les modèles formés à la fréquence brute et à l’engagement, les voix les plus fortes l’emportent. La soif d’informations de l’IA peut déformer la réalité en poussant la minorité passionnée au détriment de la majorité prudente, en particulier dans les domaines où le bien public dépend de la confiance dans une science lente et méthodique.
Prédiction du marché basée sur le manque d’informations.
Dans un article de 1980 avec Sanford Grossman, Stiglitz affirmait qu’il existe un paradoxe au cœur des marchés efficaces : si les prix reflètent pleinement toutes les informations disponibles, alors personne n’est incité à payer pour recueillir ces informations, de sorte que ces mêmes informations qui rendent les marchés « efficaces » disparaissent.
Il affirme que les marchés modernes de l’IA et de la prédiction répètent cette histoire à plus grande échelle. “Il est intéressant que vous ayez mentionné Grossman-Stiglitz”, a-t-il déclaré à Fortune, “parce que j’ai écrit un article avec l’un de mes étudiants diplômés, Max Ventura, étendant Grossman-Stiglitz à l’IA, et le résultat que j’ai décrit plus tôt sur la façon dont nous pouvons aggraver l’écosystème de l’information était en fait une référence à cette extension.”
Lorsque « les sociétés d’IA qui exploitent les données de Fortune et de tous les autres producteurs de médias » ne sont pas obligées de payer pour ce qu’elles prennent, « elles n’en récoltent pas les bénéfices et donc les incitations à faire une recherche fondamentale de qualité qui mène à un bon écosystème d’information sont atténuées ». Les marchés de prédiction et les algorithmes de trading s’appuient ensuite sur les résultats de ces modèles, dissociant ainsi davantage leurs paris de tout investissement réel sous-jacent.
“Cela a sapé les incitations à produire des informations de haute qualité, augmentant la capacité à produire des informations de mauvaise qualité et donc davantage de déchets entrants et donc davantage de déchets sortants”, a-t-il déclaré. Un système destiné à ajouter des connaissances finit par amplifier ce qui est le moins cher et le plus abondant.
L’IA comme accessoire, pas comme oracle
Malgré tout cela, Stiglitz ne pense pas que la solution consiste à interdire ou à ignorer l’IA. Il l’utilise lui-même et essaie d’enseigner à ses élèves comment faire de même, sans confondre une réponse pleine d’esprit avec un argument solide.
“Nous essayons de leur apprendre à utiliser l’IA comme outil de recherche”, a-t-il déclaré. “Donc, vous savez, nous ne nous éloignons pas de l’IA. J’utilise l’IA dans le cadre de mes recherches. C’est donc un outil de recherche incroyable, mais il ne remplace pas la réflexion et l’analyse.
“Cela peut vous aider à trouver des sources et à développer des idées”, a-t-il ajouté. “Mais en fin de compte, il faut travailler dur.” Pour lui, les résultats d’un modèle sont « de véritables supports pour commencer à penser les choses, peut-être légèrement différemment », et non des verdicts qui devraient être acceptés sans changement.
Il estime néanmoins qu’une certaine intervention au niveau gouvernemental est nécessaire pour éviter que la détérioration de l’information ne s’aggrave. “En l’absence de réglementation gouvernementale”, a-t-il prévenu, “il existe au moins un risque important que nous nous retrouvions avec un écosystème d’information plus dégradé dans un certain nombre de domaines préoccupants”.



