
Bonjour et bienvenue sur Eye on AI. Dans cette édition… pourquoi vous devriez vraiment vous soucier de Moltbook… OpenAI regarde l’introduction en bourse… Elon Musk fusionne SpaceX et xAI… Les débutants ne bénéficient pas autant de l’IA que les gens le pensent… et pourquoi nous avons besoin d’une réglementation de l’IA maintenant.
Cette semaine, tout le monde dans l’IA (et de nombreuses personnes en dehors) parlait de Moltbook. La plateforme de médias sociaux créée pour les agents d’IA a fait sensation. Le phénomène a amené de nombreuses personnes, y compris un bon nombre de chercheurs en IA normalement sobres et terre-à-terre, à se demander à haute voix à quel point nous sommes loin des scénarios de « décollage » de science-fiction dans lesquels les robots d’IA s’auto-organisent, s’améliorent et échappent au contrôle humain.
Il semble maintenant qu’une grande partie de l’alarmisme à propos de Moltbook était déplacée. Premièrement, on ne sait pas exactement combien de publications de Moltbook, parmi les plus proches de la science-fiction, ont été générées spontanément par des robots et combien sont apparues uniquement parce que des utilisateurs humains ont demandé à leurs agents OpenClaw de les publier. (Tous les robots de Moltbook ont été créés à l’aide du très populaire OpenClaw, qui est essentiellement un « harnais » d’agents open source (un logiciel qui permet aux agents d’IA d’utiliser de nombreux autres outils logiciels) qui peut être attaché à n’importe quel modèle d’IA sous-jacent.) Il est même possible que certains des messages proviennent en réalité d’humains se faisant passer pour des robots.
Deuxièmement, il n’y a aucune preuve que les robots conspiraient réellement ensemble pour faire quelque chose de néfaste, plutôt que de simplement imiter le langage sur le complot qu’ils auraient pu apprendre au cours de leur formation, qui comprend une grande partie de la littérature de science-fiction, ainsi que le récit historique de nombreuses activités humaines sommaires sur les réseaux sociaux.
Comme je l’ai noté aujourd’hui dans un article pour Fortune, de nombreux titres alarmistes autour de Moltbook ont été repris par ceux qui ont assisté à une expérience Facebook en 2017 dans laquelle deux chatbots ont développé un « langage secret » pour communiquer entre eux. À l’époque comme aujourd’hui, nombre de mes collègues journalistes ne laissaient pas les faits entraver la rédaction d’une bonne histoire. Ni les recherches antérieures de Facebook ni Moltbook ne présentent le genre de dangers de type Skynet que suggèrent certaines couvertures.
Maintenant la mauvaise nouvelle
Mais c’est là que s’arrête la bonne nouvelle. Moltbook montre qu’en matière d’agents IA, nous sommes au Far West. Comme le souligne ma collègue Bea Nolan dans cet article très bien informé, Moltbook est un cauchemar de cybersécurité, rempli de logiciels malveillants, d’escroqueries par pompage et vidage de cryptomonnaies et d’attaques cachées par injection rapide, c’est-à-dire des instructions lisibles par machine, parfois difficiles à détecter par les gens, qui tentent de détourner un agent d’IA pour qu’il fasse quelque chose qu’il n’est pas censé faire. Selon des chercheurs en sécurité, il semble que certains utilisateurs d’OpenClaw aient subi d’importantes violations de données après avoir autorisé leurs agents IA à accéder à Moltbook. L’injection rapide constitue un défi de cybersécurité non résolu pour tous les agents d’IA qui peuvent actuellement accéder à Internet. Et c’est pourquoi de nombreux experts en IA déclarent qu’ils sont extrêmement prudents quant aux logiciels, outils et données auxquels ils permettent aux agents d’IA d’accéder. Certains n’autorisent les agents à accéder à Internet que s’ils se trouvent dans une machine virtuelle où ils ne peuvent pas accéder à des informations importantes, telles que des mots de passe, des fichiers de travail, des e-mails ou des informations bancaires. Mais d’un autre côté, ces précautions de sécurité rendent les agents d’IA beaucoup moins utiles. La seule raison pour laquelle OpenClaw a décollé est que les gens voulaient un moyen simple d’activer des agents pour qu’ils fassent des choses à leur place. Il y a ensuite les grandes implications de l’IA en matière de sécurité. Ce n’est pas parce qu’il n’y a aucune preuve que les agents OpenClaw ont une volonté indépendante que les mettre dans une conversation incontrôlée avec d’autres agents IA est une excellente idée. Une fois que ces agents ont accès aux outils et à Internet, il n’est plus vraiment important, d’une certaine manière, qu’ils comprennent leurs propres actions ou qu’ils en soient conscients. En imitant simplement des scénarios de science-fiction qu’ils ont ingérés lors de leur formation, il est possible que des agents d’IA se livrent à des activités susceptibles de causer un préjudice réel à de nombreuses personnes, en se livrant par exemple à des cyberattaques. (Essentiellement, ces agents d’IA pourraient fonctionner d’une manière qui n’est pas si différente des virus informatiques « vers » super puissants. Personne ne croit que le ransomware WannaCry était conscient. Pourtant, il a causé d’énormes dégâts dans le monde entier.)
Pourquoi Yann LeCun avait tort… sur les gens, pas sur l’IA
Il y a quelques années, j’ai assisté à un événement au AI Research Lab de Facebook à Paris où Yann LeCun, qui était à l’époque le scientifique en chef de l’IA de Meta, a pris la parole. LeCun, qui a récemment quitté Meta pour lancer sa propre startup d’IA, a toujours été sceptique quant aux scénarios de « décollage » dans lesquels l’IA échappe au contrôle humain. Et lors de l’événement, il s’est moqué de l’idée selon laquelle l’IA poserait un jour des risques existentiels.
D’une part, LeCun estime que l’IA actuelle est trop stupide et peu fiable pour faire quoi que ce soit qui mette le monde en danger. Mais deuxièmement, LeCun a trouvé ces scénarios de « décollage » de l’IA insultants pour les chercheurs et ingénieurs en IA en tant que classe professionnelle. Nous ne sommes pas stupides, a soutenu LeCun. Si jamais nous construisions quelque chose où il y avait la moindre possibilité que l’IA échappe au contrôle humain, nous le construirions toujours dans un bac à sable « fermé à clé », sans accès à Internet et avec un kill switch que l’IA ne pourrait pas désactiver. Selon LeCun, les ingénieurs pourraient toujours pirater le cordon d’alimentation de l’ordinateur avec une hache avant que l’IA ne puisse comprendre comment sortir de sa cage numérique.
Eh bien, cela peut être vrai pour les chercheurs et ingénieurs en IA travaillant pour de grandes entreprises, comme Meta ou Google DeepMind, ou OpenAI ou Anthropic. Mais aujourd’hui, l’IA, grâce à la montée en puissance des agents et assistants de codage, a démocratisé la création de l’IA elle-même. Désormais, un monde rempli de développeurs indépendants peut créer des agents IA. Peter Steinberger, créateur d’OpenClaw, est un développeur indépendant. Matt Schlicht, qui a créé Moltbook, est un entrepreneur indépendant qui a codé la plateforme sociale. Et contrairement à LeCun, les développeurs indépendants ont toujours démontré leur volonté de sortir les systèmes d’IA du bac à sable et de les mettre dans la nature, ne serait-ce que pour voir ce qui se passe… juste pour les MDR.
Cela dit, voici plus d’actualités sur l’IA.
Jeremy Kahnjeremy.kahn@fortune.com@jeremyakahn
Cette histoire a été initialement publiée sur Fortune.com



