Les sommités de l’IA à Davos s’affrontent sur la proximité réelle de l’intelligence humaine | Fortune

Les sommités de l’IA à Davos s’affrontent sur la proximité réelle de l’intelligence humaine | Fortune

Certains des noms les plus connus au monde dans le domaine de l’intelligence artificielle sont arrivés cette semaine dans la petite station de ski de Davos, en Suisse, pour le Forum économique mondial (WEF).

L’IA a dominé de nombreuses discussions parmi les entreprises, les dirigeants gouvernementaux, les universitaires et les groupes non gouvernementaux. Cependant, un contraste évident est apparu quant à la proximité des modèles actuels avec la reproduction de l’intelligence humaine et aux impacts économiques probables à court terme de la technologie.

Les grands modèles linguistiques (LLM) qui ont captivé le monde ne constituent pas une voie vers une intelligence au niveau humain, ont déclaré deux experts en IA dans des commentaires séparés à Davos.

Demis Hassabis, PDG de Google DeepMind, lauréat du prix Nobel et responsable du développement des modèles Gemini de Google, a déclaré que les systèmes d’IA actuels, aussi impressionnants soient-ils, sont « loin d’être » une intelligence générale artificielle (AGI) de niveau humain.

Yann LeCun, un pionnier de l’IA qui a remporté un Turing Award, le prix le plus prestigieux en informatique, pour ses travaux sur les réseaux neuronaux, est allé plus loin et a déclaré que les LLM qui sous-tendent tous les principaux modèles d’IA ne seront jamais capables d’atteindre une intelligence semblable à celle de l’humain et qu’une approche complètement différente est nécessaire.

Leurs points de vue diffèrent sensiblement de la position affirmée par les hauts dirigeants des principaux rivaux de Google en matière d’IA, OpenAI et Anthropic, qui affirment que leurs modèles d’IA sont sur le point de rivaliser avec l’intelligence humaine.

Dario Amodei, directeur général d’Anthropic, a déclaré lors d’un auditoire à Davos que les modèles d’IA remplaceraient le travail de tous les développeurs de logiciels d’ici un an et atteindraient le « niveau Nobel » de la recherche scientifique dans plusieurs domaines d’ici deux ans. Il a déclaré que 50 % des emplois de bureau disparaîtraient d’ici cinq ans.

Le PDG d’OpenAI, Sam Altman (qui n’était pas à Davos cette année) a déclaré que nous commençons déjà à passer de l’AGI au niveau humain à la « superintelligence », ou à une IA qui serait plus intelligente que tous les humains réunis.

Les LLM peuvent-ils conduire à l’intelligence générale ?

Lors d’une apparition conjointe au WEF avec Amodei, Hassabis a déclaré qu’il y avait 50 % de chances d’atteindre l’AGI d’ici la décennie, mais pas grâce à des modèles construits exactement comme les systèmes d’IA actuels.

Dans une conférence ultérieure sponsorisée par Google, il a expliqué que “nous aurons peut-être besoin d’une ou deux avancées supplémentaires avant d’arriver à l’AGI”. Il a identifié plusieurs lacunes clés, notamment la capacité d’apprendre à partir de quelques exemples, la capacité d’apprendre en continu, une meilleure mémoire à long terme et de meilleures capacités de raisonnement et de planification.

“Ma définition de (AGI) est un système qui peut présenter toutes les capacités cognitives que les humains peuvent posséder, et je dis bien toutes”, a-t-il déclaré, y compris “les plus hauts niveaux de créativité humaine que nous célébrons toujours, les scientifiques et les artistes que nous admirons”. Alors que les systèmes d’IA avancés ont commencé à résoudre des équations mathématiques difficiles et à répondre à des conjectures jusqu’alors non testées, l’IA devra développer ses propres conjectures innovantes (une tâche « beaucoup plus difficile ») pour être considérée comme comparable à l’intelligence humaine.

LeCun, s’exprimant à l’AI House de Davos, a été encore plus direct dans sa critique de l’accent singulier mis par l’industrie sur les LLM. “La raison pour laquelle… les LLM ont connu un tel succès est que la langue est simple”, a-t-il expliqué.

Il a comparé cela aux défis posés par le monde physique. “Nous avons des systèmes qui peuvent réussir l’examen du barreau, ils peuvent écrire du code… mais ils ne traitent pas vraiment le monde réel. C’est pourquoi nous n’avons pas de robots domestiques (et) nous n’avons pas de véhicules autonomes de niveau cinq”, a-t-il déclaré.

LeCun, qui a quitté Meta en novembre pour fonder Advanced Machine Intelligence Labs (AMI), a fait valoir que l’industrie de l’IA est devenue dangereusement monolithique. “L’industrie de l’IA est entièrement basée sur le LLM”, a-t-il déclaré.

Il a déclaré que la décision de Meta de se concentrer exclusivement sur LLM et d’investir des dizaines de milliards de dollars pour construire des centres de données colossaux avait contribué à sa décision de quitter le géant de la technologie. LeCun a ajouté que son point de vue selon lequel les LLM et l’IA générative n’étaient pas la voie vers une IA de niveau humain, et encore moins vers la « superintelligence » souhaitée par le PDG Mark Zuckerberg, le rendait impopulaire au sein de l’entreprise.

“Dans la Silicon Valley, tout le monde travaille sur la même chose. Tout le monde creuse la même tranchée”, a-t-il déclaré.

La limite fondamentale, selon LeCun, est que les systèmes actuels ne peuvent pas construire un « modèle mondial » capable de prédire ce qui est le plus susceptible de se produire ensuite et de relier les causes et les effets. “Je ne peux pas imaginer que nous puissions construire des systèmes d’agents sans que ces systèmes aient la capacité de prédire à l’avance quelles seront les conséquences de leurs actions”, a-t-il déclaré. “La façon dont nous agissons dans le monde est que nous savons que nous pouvons prédire les conséquences de nos actions, et c’est ce qui nous permet de planifier.”

La nouvelle société de LeCun espère développer ces modèles mondiaux grâce à des données vidéo. Mais alors que certains modèles d’IA vidéo tentent de prédire les pixels image par image, le travail de LeCun est conçu pour fonctionner à un niveau d’abstraction plus élevé afin de mieux correspondre aux objets et aux concepts.

“Ce sera la prochaine révolution de l’IA”, a-t-il déclaré. “Nous n’atteindrons jamais une intelligence au niveau humain en formant des LLM ou en les formant uniquement avec du texte. Nous avons besoin du monde réel.”

Qu’en pense l’entreprise ?

Hassabis a fixé le calendrier pour une véritable AGI au niveau humain à « cinq à 10 ans ». Cependant, les milliers de milliards de dollars investis dans l’IA montrent que le monde des affaires n’attend pas de le savoir.

Le débat sur l’AGI peut être quelque peu académique pour de nombreux chefs d’entreprise. Selon Ravi Kumar, PDG de Cognizant, la question la plus urgente est de savoir si les entreprises peuvent exploiter l’énorme valeur qu’offre déjà l’IA.

Selon une étude de Cognizant publiée avant Davos, la technologie actuelle de l’IA pourrait générer environ 4 500 milliards de dollars de productivité du travail aux États-Unis si les entreprises parviennent à la mettre en œuvre efficacement.

Mais Kumar a déclaré à Fortune que la plupart des entreprises n’avaient pas encore accompli le dur travail de restructuration de leurs activités ou de requalification de leur main-d’œuvre pour exploiter le potentiel de l’IA.

« Ces 4 500 milliards de dollars généreront une réelle valeur dans les entreprises si vous commencez à penser à la réinvention (des entreprises existantes) », a-t-il déclaré. Il a ajouté que cela nécessitait également ce qu’il appelle « l’intégration » du travail humain et du travail numérique effectué par l’IA.

“La qualification n’est plus une chose secondaire”, a-t-il soutenu. “Cela doit faire partie de l’histoire des infrastructures pour pouvoir guider les gens vers l’avenir, créer des salaires plus élevés et une mobilité sociale ascendante et en faire un effort qui crée une prospérité partagée.”

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici