
Anthropic donne à un groupe de grandes entreprises de technologie et de cybersécurité l’accès à une version préliminaire de Claude Mythos, son modèle d’IA le plus avancé et inédit, dans le but de renforcer les défenses de cybersécurité sur certains des systèmes les plus critiques au monde.
L’entreprise craint que le nouveau modèle ne pose des risques de cybersécurité sans précédent et n’augmente cette année la probabilité de cyberattaques à grande échelle basées sur l’IA.
L’initiative, appelée Project Glasswing, permet à des entreprises telles qu’Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, Microsoft et Nvidia d’utiliser Mythos Preview d’Anthropic pour des travaux de sécurité défensive et de partager leurs apprentissages avec l’ensemble du secteur. Anthropic donne également accès à environ 40 autres organisations responsables de la création ou de la maintenance d’une infrastructure logicielle critique, leur permettant d’utiliser le modèle pour analyser et protéger à la fois leurs propres systèmes et leur code open source.
Dans un article de blog annonçant la nouvelle initiative, Anthropic a déclaré avoir créé le projet Glasswing car il estime que les capacités de son Claude Mythos Preview pourraient remodeler le secteur de la cybersécurité grâce à ses fortes capacités de codage et de raisonnement d’agent. Anthropic a déclaré qu’il ne prévoyait pas de rendre Mythos Preview généralement disponible, mais qu’il souhaitait à terme déployer en toute sécurité des modèles de classe Mythos à grande échelle lorsque de nouvelles garanties seraient mises en œuvre.
L’existence du modèle Mythos d’Anthropic a été révélée pour la première fois en mars, lorsque Fortune a annoncé que la société développait et testait un modèle inédit décrit dans les documents de la société comme « de loin le modèle d’IA le plus puissant » qu’elle ait jamais développé. Dans un projet d’article de blog rendu public par inadvertance le mois dernier, Anthropic a averti que Mythos est « actuellement bien en avance sur tout autre modèle d’IA en matière de cybercapacités » et a déclaré qu’il « préfigure une vague à venir de modèles capables d’exploiter les vulnérabilités d’une manière qui dépasse de loin les efforts des défenseurs ».
Au cours des dernières semaines, Anthropic affirme que son Mythos Preview a identifié des milliers de vulnérabilités zero-day, dont beaucoup étaient critiques et difficiles à détecter, y compris certaines dans tous les principaux systèmes d’exploitation et navigateurs Web. Selon la société, plusieurs des vulnérabilités découvertes à l’aide du modèle existaient sans être détectées depuis des années, la plus ancienne étant un bug vieux de 27 ans dans OpenBSD, un système d’exploitation surtout connu pour sa sécurité renforcée.
Mais Anthropic a également reconnu que les attaquants peuvent également utiliser les mêmes capacités qui peuvent renforcer les cyberdéfenses.
“Compte tenu du rythme des progrès de l’IA, de telles capacités ne tarderont pas à proliférer, potentiellement au-delà des acteurs engagés à les déployer en toute sécurité”, a déclaré la société dans un article de blog. “Les conséquences (pour les économies, la sécurité publique et la sécurité nationale) pourraient être graves. Le projet Glasswing est une tentative urgente de mettre ces capacités à profit à des fins défensives.”
Alors que les inquiétudes concernant le potentiel de l’IA à automatiser les cyberattaques à grande échelle augmentent depuis un certain temps, le nouveau modèle d’Anthropic semble représenter un nouveau niveau dangereux de performance de l’IA dans les cybertâches. Selon un rapport d’Axios, Anthropic a déjà averti en privé de hauts responsables gouvernementaux que Mythos rendait les cyberattaques à grande échelle beaucoup plus probables cette année.
Les modèles précédents d’OpenAI et d’Anthropic avaient déjà atteint un nouveau niveau de risque de cybermenace. Lorsque OpenAI a publié GPT-5.3-Codex en février, la société a déclaré qu’il s’agissait du premier modèle qu’elle classifiait comme hautement performant pour les tâches de cybersécurité dans le cadre de son cadre de préparation et du premier qu’elle avait directement formé pour identifier les vulnérabilités logicielles. Anthropic a également déclaré que son modèle le plus avancé sur le marché, Opus 4.6, sorti la même semaine, démontrait sa capacité à révéler des vulnérabilités jusqu’alors inconnues dans les bases de code de production, une capacité que la société a reconnue comme étant à double usage.
Les pirates ont déjà exploité les outils Anthropic pour permettre des attaques plus sophistiquées et autonomes. L’année dernière, la société a révélé ce qu’elle a décrit comme le premier cas documenté de cyberattaque largement exécutée par l’IA ; Un groupe parrainé par l’État chinois a utilisé des agents d’IA pour infiltrer de manière autonome environ 30 cibles mondiales, l’IA gérant la plupart des opérations tactiques de manière indépendante.
“Compte tenu du rythme des progrès de l’IA, de telles capacités ne tarderont pas à proliférer, potentiellement au-delà des acteurs engagés à les déployer en toute sécurité”, a déclaré Anthropic dans un communiqué. “Le travail de défense de la cyberinfrastructure mondiale pourrait prendre des années ; les capacités de l’IA devraient progresser considérablement dans les mois à venir. Pour que les cyberdéfenseurs progressent, nous devons agir maintenant.”



