Le plus grand rassemblement technologique au monde parle de « blanchiment » : voici pourquoi nous devrions les nommer mots de l’année | Fortune

Summer Yue n’est pas l’employée la plus célèbre de Meta. La directrice de « l’alignement du superintelligence et de la recherche sur la sécurité » publie des photos d’elle promenant son chien sur la plage et des messages sur les tests d’honnêteté des assistants IA. Il compte un nombre modeste de followers sur les réseaux sociaux.

Mais pendant une journée de février, Yue est devenue la personne dont on parle le plus à Meta. Non pas en lançant un nouveau produit notable ou en annonçant une percée dans l’IA des agents, mais plutôt en se rattrapant.

“Rien ne vous humilie plus que de dire à votre OpenClaw ‘Confirmez avant d’agir’ et de le regarder accélérer la suppression de votre boîte de réception”, a écrit Yue sur X, un article qui compte désormais près de 10 millions de vues. “Je ne pouvais pas l’arrêter depuis mon téléphone. J’ai dû courir vers mon Mac mini comme si j’étais en train de désamorcer une bombe.”

Il s’agit d’une conversation vitale, si importante que lors du Mobile World Congress de Barcelone (le plus grand rassemblement technologique au monde) cette semaine, l’erreur de Yue a été débattue sur la scène principale.

“Bien sûr, tout le monde ici au Congrès mondial a discuté d’OpenClaw et de la manière dont nous pouvons utiliser les agents”, a déclaré Kate Crawford, professeure-chercheuse à l’Université de Californie du Sud.

“Mais ensuite, nous avons vu que le responsable de la sécurité de l’IA de Meta utilisait OpenClaw et il a supprimé l’intégralité de sa boîte de réception. Il s’agit du responsable de la sécurité de Meta. Donc, si vous rencontrez des problèmes, je pense que nous devons tous nous demander : “Comment pouvons-nous nous assurer que ces systèmes sont vraiment renforcés ? Comment pouvons-nous nous assurer qu’ils sont rigoureusement testés ? Comment pouvons-nous nous assurer que nous pouvons réellement leur déléguer de manière fiable ?” Et c’est vraiment le problème le plus difficile à résoudre, n’est-ce pas ?

Bien. Quand quelque chose ne va pas, qui est responsable ? L’utilisateur ? Le développeur ? Le manque de régulation ? Lorsque la réalité de l’IA se heurte à ses promesses, que faisons-nous ?

La boîte de réception de Yue n’est peut-être que de la plus haute importance pour elle. Lorsqu’il s’agit de la relation entre la technologie et, disons, notre santé ou, regardez Anthropic, la défense de la nation, c’est une question très différente. Il n’y a pas si longtemps, Grok, le robot IA de xAI, « déshabillait » avec désinvolture des images de femmes et de filles au grand dam de millions de personnes. La menace d’une action dirigée par le gouvernement et l’État a finalement provoqué un changement d’approche.

“Comment pouvons-nous nous assurer que ces systèmes sont réellement renforcés ? Comment pouvons-nous nous assurer qu’ils sont rigoureusement testés ?”

Kate Crawford, professeure-chercheuse à l’Université de Californie du Sud

« Comment pouvez-vous réellement créer des responsabilités ? » -Crawford a demandé. “C’est ce que nous voulons tous. Si vous comptez commencer à faire appel à des agents pour réserver vos vols et organiser vos rendez-vous médicaux et des activités encore plus intimes et fiables dans votre vie quotidienne, vous voudrez savoir que les informations seront protégées.

“Alors, comment prouver cela ? Comment garantir que cela se produit ? Si nous regardons ce qui s’est passé au cours des 10 dernières années dans l’espace technologique, nous avons malheureusement assisté à beaucoup de blanchiment, c’est à ce moment-là que les entreprises peuvent dire : ‘Eh bien, je ne sais pas. Je veux dire, l’algorithme l’a fait.'”

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici