Les experts en sécurité s’inquiètent d’OpenClaw, le mauvais garçon des agents IA | Fortune

Les experts en sécurité s’inquiètent d’OpenClaw, le mauvais garçon des agents IA | Fortune

Bienvenue dans Eye on AI, avec la journaliste Sharon Goldman. Dans cette édition : Le côté sauvage d’OpenClaw… Le nouveau super PAC d’Anthropic, d’une valeur de 20 millions de dollars, contre OpenAI… OpenAI lance son premier modèle conçu pour une production ultra-rapide… Anthropic couvrira les augmentations du prix de l’électricité de ses centres de données d’IA… Isomorphic Labs affirme avoir ouvert une nouvelle frontière biologique au-delà d’AlphaFold.

Le problème de donner à OpenClaw un pouvoir extraordinaire pour faire des choses intéressantes ? Sans surprise, cela vous offre également de nombreuses opportunités de faire des choses que vous ne devriez pas faire, notamment exfiltrer des données, exécuter des commandes indésirables ou être détourné silencieusement par des attaquants, soit par le biais de logiciels malveillants, soit par le biais d’attaques dites « d’injection rapide ». (Lorsque quelqu’un inclut des instructions malveillantes à l’intention de l’agent IA dans des données qu’un agent IA pourrait utiliser.)

Selon deux experts en cybersécurité avec lesquels j’ai parlé cette semaine, ce qui est passionnant à propos d’OpenClaw, c’est qu’il n’a aucune restriction, donnant essentiellement aux utilisateurs un pouvoir illimité pour le personnaliser comme ils le souhaitent.

“La seule règle est qu’il n’y a pas de règles”, a déclaré Ben Seri, co-fondateur et directeur technique de Zafran Security, spécialisé dans la gestion de l’exposition aux menaces des entreprises. “Cela fait partie du jeu.” Mais ce jeu peut se transformer en un cauchemar en matière de sécurité, car les règles et les limites sont essentielles pour tenir à distance les pirates informatiques et les fuites.

Problèmes de sécurité classiques

Les problèmes de sécurité sont assez classiques, a déclaré Colin Shea-Blymyer, chercheur au Centre pour la sécurité et les technologies émergentes (CSET) de Georgetown, où il travaille sur le projet CyberAI. Les erreurs de configuration des autorisations (qui ou quoi a l’autorisation de faire quoi) signifient que les humains pourraient accidentellement donner à OpenClaw plus d’autorité qu’ils ne le pensent, et que les attaquants pourraient en profiter.

Par exemple, dans OpenClaw, une grande partie du risque provient de ce que les développeurs appellent des « compétences », qui sont essentiellement des applications ou des modules complémentaires que l’agent d’IA peut utiliser pour effectuer des actions, telles que l’accès à des fichiers, la navigation sur le Web ou l’exécution de commandes. La différence est que, contrairement à une application normale, OpenClaw décide seul quand utiliser ces capacités et comment les enchaîner, ce qui signifie qu’une petite erreur d’autorisation peut rapidement se transformer en quelque chose de beaucoup plus grave.

“Imaginez l’utiliser pour accéder à la page de réservation d’un restaurant et également accéder à votre calendrier avec toutes sortes d’informations personnelles”, a-t-il déclaré. “Ou que se passe-t-il s’il s’agit d’un malware qui trouve la mauvaise page et installe un virus ?”

OpenClaw a des pages de sécurité dans sa documentation et essaie de garder les utilisateurs alertes et conscients, a déclaré Shea-Blymyer. Mais les problèmes de sécurité restent des problèmes techniques complexes que la plupart des utilisateurs moyens ne comprennent probablement pas pleinement. Et même si les développeurs d’OpenClaw peuvent travailler dur pour corriger les vulnérabilités, ils ne peuvent pas résoudre facilement le problème sous-jacent de la capacité de l’agent à agir seul, ce qui rend le système si attrayant en premier lieu.

“C’est la tension fondamentale dans ce type de systèmes”, a-t-il déclaré. “Plus vous leur donnez d’accès, plus ils seront amusants et intéressants, mais aussi plus dangereux.”

Les entreprises mettront du temps à adopter

Seri de Zafran Security a admis qu’il y a peu de chances d’écraser la curiosité des utilisateurs lorsqu’il s’agit d’un système comme OpenClaw, bien qu’il ait souligné qu’il faudra beaucoup plus de temps aux entreprises pour adopter un système aussi incontrôlable et peu sûr. Pour l’utilisateur moyen, dit-il, il devrait vivre l’expérience comme s’il travaillait dans un laboratoire de chimie avec un matériau hautement explosif.

Shea-Blymyer a noté qu’il est positif qu’OpenClaw se déroule d’abord au niveau amateur. “Nous en apprendrons beaucoup sur l’écosystème avant que quiconque ne l’essaye au niveau de l’entreprise”, a-t-il déclaré. “Les systèmes d’IA peuvent échouer d’une manière que nous ne pouvons même pas imaginer”, a-t-il expliqué. “(OpenClaw) pourrait nous fournir de nombreuses informations sur les raisons pour lesquelles les différents LLM se comportent comme ils le font et sur les nouveaux problèmes de sécurité.”

Mais même si OpenClaw est aujourd’hui une expérience amateur, les experts en sécurité y voient un aperçu des types de systèmes autonomes que les entreprises se sentiront éventuellement obligées de mettre en œuvre.

Pour l’instant, à moins que quelqu’un ne veuille faire l’objet d’une enquête de sécurité, l’utilisateur moyen voudra peut-être rester à l’écart d’OpenClaw, a déclaré Shea-Blymyer. Sinon, ne soyez pas surpris si votre assistant personnel IA s’aventure en territoire très hostile.

FORTUNE EN IA

Le blog viral de Matt Shumer sur l’impact imminent de l’IA sur les travailleurs du savoir est basé sur des hypothèses erronées – par Jeremy Kahn

Le PDG de Capgemini a un avertissement. Vous vous trompez peut-être à propos de l’IA – par Kamal Ahmed

Le leader de l’IA de Google, lauréat du prix Nobel, voit une « renaissance » à venir, après 10 à 15 ans de bouleversement, par Nick Lichtenberg

X-odus : la moitié de l’équipe fondatrice de xAI a quitté la société d’IA d’Elon Musk, ce qui pourrait compliquer leurs plans pour une introduction en bourse réussie de SpaceX – par Beatrice Nolan

OpenAI conteste l’affirmation de l’organisme de surveillance selon laquelle il aurait enfreint la nouvelle loi californienne sur la sécurité de l’IA avec le lancement du dernier modèle – par Beatrice Nolan

L’IA DANS L’ACTUALITÉ

Mustafa Suleyman envisage une « autosuffisance » en matière d’IA alors que Microsoft relâche ses liens avec OpenAI. Le Financial Times a rapporté que Microsoft s’oriente vers ce que son responsable de l’IA, Mustafa Suleyman, appelle « une véritable autosuffisance » en matière d’intelligence artificielle, en accélérant les efforts visant à construire ses propres modèles de base et à réduire la dépendance à long terme à l’égard d’OpenAI, même s’il reste l’un des plus grands bailleurs de fonds de la startup. Dans une interview, Suleyman a déclaré que ce changement fait suite à une restructuration de la relation de Microsoft avec OpenAI en octobre dernier, qui a préservé l’accès aux modèles les plus avancés d’OpenAI jusqu’en 2032, mais a également donné au fabricant de ChatGPT plus de liberté pour rechercher de nouveaux investisseurs et partenaires, ce qui pourrait en faire un concurrent. Microsoft investit désormais massivement dans l’informatique à l’échelle du gigawatt, les pipelines de données et les équipes de recherche d’élite en IA, avec l’intention de lancer ses propres modèles internes plus tard cette année, visant directement à automatiser le travail administratif et à conquérir une plus grande part de marché des entreprises avec ce que Suleyman appelle « une AGI de qualité professionnelle ».

OpenAI lance son premier modèle conçu pour des résultats ultra rapides. OpenAI a publié un aperçu de recherche de GPT-5.3-Codex-Spark, le premier produit tangible issu de son partenariat avec Cerebras, qui utilise le matériel d’IA à l’échelle d’une tranche du fabricant de puces pour fournir un codage en temps réel à très faible latence dans le Codex. Le plus petit modèle, une version optimisée de GPT-5.3-Codex, est optimisé pour la vitesse plutôt que pour la capacité maximale, générant des réponses jusqu’à 15 fois plus rapides afin que les développeurs puissent apporter des modifications spécifiques, remodeler la logique et itérer de manière interactive sans attendre la fin de longues exécutions. Initialement disponible en tant qu’aperçu de recherche pour les utilisateurs de ChatGPT Pro et un petit groupe de partenaires API, la version signale l’accent croissant d’OpenAI sur la vitesse d’interaction alors que les agents d’IA entreprennent des tâches plus autonomes et de longue durée, avec un codage en temps réel émergeant comme un premier cas de test de ce qui peut être débloqué avec une inférence plus rapide.

Isomorphic Labs affirme avoir ouvert une nouvelle frontière biologique au-delà d’AlphaFold. Isomorphic Labs, la société de découverte de médicaments d’IA affiliée à Alphabet et DeepMind, affirme que son nouveau moteur de conception de médicaments Isomorphic Labs représente une avancée majeure dans la médecine informatique en combinant plusieurs modèles d’IA dans un moteur unifié capable de prédire comment les molécules biologiques interagissent avec une précision sans précédent. Un article de blog indique qu’il a plus que doublé les performances précédentes dans des tests de référence clés et surpassé les méthodes traditionnelles basées sur la physique pour des tâches telles que la prédiction de la structure des protéines et des ligands et l’estimation de l’affinité de liaison – des capacités qui, selon la société, pourraient accélérer considérablement la conception et l’optimisation des nouveaux médicaments candidats. Le système s’appuie sur le succès d’AlphaFold 3, un modèle d’IA avancé lancé en 2024 qui prédit les structures et les interactions 3D de toutes les molécules de la vie, y compris les protéines, l’ADN et l’ARN. Mais la société affirme qu’elle va plus loin en identifiant de nouveaux foyers de liaison, en généralisant à des structures en dehors de ses données de formation et en intégrant ces prédictions dans une plate-forme évolutive qui vise à combler le fossé entre la biologie structurale et la découverte de médicaments dans le monde réel, remodelant potentiellement la manière dont la recherche pharmaceutique aborde des cibles difficiles et s’étend aux produits biologiques complexes.

ATTENTION AUX CHIFFRES IA77%

C’est ainsi que de nombreux professionnels de la sécurité se disent au moins un peu à l’aise en permettant aux systèmes d’IA autonomes d’agir sans supervision humaine, même s’ils restent prudents, selon une nouvelle enquête menée auprès de 1 200 professionnels de la sécurité par Ivanti, une société mondiale de logiciels informatiques et de sécurité d’entreprise. De plus, le rapport révèle que l’adoption de l’IA des agents est une priorité pour 87 % des équipes de sécurité.

Cependant, Daniel Spicer, responsable de la sécurité d’Ivanti, affirme que les équipes de sécurité ne devraient pas être trop à l’aise avec l’idée de déployer une IA autonome. Bien que ses défenseurs soient optimistes quant aux promesses de l’IA en matière de cybersécurité, les résultats montrent également que les entreprises sont encore plus à la traîne en termes de préparation à se défendre contre diverses menaces.

“C’est ce que j’appelle ‘l’écart de préparation à la cybersécurité'”, a-t-il écrit dans un article de blog, “un déséquilibre persistant d’année en année dans la capacité d’une organisation à défendre ses données, ses personnes et ses réseaux contre l’évolution du paysage technologique”.

VOUS AVEZ UN CALENDRIER

10 et 11 février : AI Action Summit, New Delhi, Inde.

24-26 février : Association internationale pour une IA sûre et éthique (IASEAI), UNESCO, Paris, France.

2-5 mars : Mobile World Congress, Barcelone, Espagne.

16-19 mars : Nvidia GTC, San Jose, Californie.

6-9 avril : HumanX, San Francisco.

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici