Exclusif : Anthropic teste « Mythos », son « modèle d’IA le plus puissant jamais développé » | Fortune

La société d’IA Anthropic développe et a commencé à tester avec des clients à accès anticipé un nouveau modèle d’IA plus performant que tous ceux qu’elle a publiés précédemment, a déclaré la société, à la suite d’une violation de données qui a révélé l’existence du modèle.

Un porte-parole d’Anthropic a déclaré que le nouveau modèle représentait « un changement radical » dans les performances de l’IA et était « le plus performant que nous ayons construit à ce jour ». La société a déclaré que le modèle était actuellement testé par des « clients à accès anticipé ».

Les descriptions des modèles ont été stockées par inadvertance dans un cache de données accessible au public et examinées par Fortune.

Un projet d’article de blog qui était disponible sur un entrepôt de données non sécurisé et consultable publiquement avant jeudi soir indiquait que le nouveau modèle s’appelait “Claude Mythos” et que la société pensait qu’il posait des risques de cybersécurité sans précédent.

La même cache de documents non sécurisés et accessibles au public a révélé les détails d’un sommet des PDG prévu sur invitation uniquement en Europe, qui fait partie des efforts de l’entreprise pour vendre ses modèles d’IA à de grandes entreprises clientes.

Actuellement, Anthropic commercialise chacun de ses modèles en trois tailles différentes : les versions du modèle le plus grand et le plus performant portent la marque Opus, tandis que les versions légèrement plus rapides et moins chères, mais moins performantes, portent la marque Sonnet, et les versions plus petites, moins chères et plus rapides s’appellent Haiku. Cependant, dans le billet de blog, Anthropic décrit le Capybara comme un nouveau niveau de modèle encore plus grand et plus performant que l’Opus, mais aussi plus cher.

“Par rapport à notre meilleur modèle précédent, Claude Opus 4.6, Capybara obtient des résultats nettement supérieurs en matière de codage logiciel, de raisonnement académique et de tests de cybersécurité, entre autres”, a indiqué la société sur son blog.

Le document indique également que la société a suivi la formation “Claude Mythos”, que le projet d’article de blog décrit comme “de loin le modèle d’IA le plus puissant que nous ayons jamais développé”.

En réponse aux questions sur le projet d’article de blog, la société a reconnu avoir formé et testé un nouveau modèle. “Nous développons un modèle à usage général avec des avancées significatives en matière de raisonnement, de codage et de cybersécurité”, a déclaré un porte-parole d’Anthropic. “Compte tenu de la force de ses capacités, nous réfléchissons à la manière dont nous le lancerons. Comme c’est la pratique courante dans l’industrie, nous travaillons avec un petit groupe de clients à accès anticipé pour tester le modèle. Nous considérons que ce modèle change la donne et est le plus performant que nous ayons construit à ce jour.”

Le document examiné par Fortune et les experts en cybersécurité consiste en des données structurées pour une page Web, avec des titres et une date de publication, suggérant qu’il fait partie d’un lancement de produit prévu. Il décrit une stratégie de déploiement prudente pour le modèle, en commençant par un petit groupe d’utilisateurs à accès anticipé. Le projet de blog note que le modèle est coûteux à exploiter et qu’il n’est pas encore prêt pour une diffusion générale.

Nouveaux risques majeurs en matière de cybersécurité

Le nouveau modèle d’IA présente des risques importants en matière de cybersécurité, selon le document divulgué.

“Alors que nous nous préparons à libérer Claude Capybara, nous souhaitons procéder avec une prudence accrue et comprendre les risques qu’il pose, même au-delà de ce que nous avons appris lors de nos propres tests. En particulier, nous souhaitons comprendre les risques potentiels à court terme du modèle dans le domaine de la cybersécurité et partager les résultats pour aider les cyberdéfenseurs à se préparer”, indique le document.

Anthropic semble particulièrement préoccupé par les implications de ce modèle en matière de cybersécurité, notant que le système « est actuellement bien en avance sur tout autre modèle d’IA en termes de cybercapacités » et « préfigure une prochaine vague de modèles capables d’exploiter les vulnérabilités d’une manière qui dépasse de loin les efforts des défenseurs ». En d’autres termes, Anthropic craint que les pirates informatiques puissent utiliser ce modèle pour exécuter des cyberattaques à grande échelle.

La société a déclaré dans le projet de blog qu’en raison de ce risque, son projet de publication du modèle se concentrerait sur les cyberdéfenseurs : “Nous le publions en accès anticipé pour les organisations, leur donnant ainsi une longueur d’avance pour améliorer la robustesse de leurs bases de code face à la vague imminente d’exploits pilotés par l’IA.”

La dernière génération de modèles frontières d’Anthropic et d’OpenAI a franchi un seuil qui, selon les entreprises, pose de nouveaux risques en matière de cybersécurité. En février, lorsque OpenAI a publié GPT-5.3-Codex, la société a déclaré qu’il s’agissait du premier modèle qu’elle classifiait comme « haute capacité » pour les tâches liées à la cybersécurité dans le cadre de son cadre de préparation, et le premier qu’elle avait directement formé pour identifier les vulnérabilités logicielles.

Anthropic, quant à lui, était confronté à des risques similaires avec son Opus 4.6, sorti la même semaine. Le modèle a démontré la capacité de découvrir des vulnérabilités jusqu’alors inconnues dans les bases de code de production, une capacité que la société a reconnue comme étant à double usage, ce qui signifie qu’elle pourrait aider les pirates informatiques et les défenseurs de la cybersécurité à trouver et à combler les vulnérabilités du code.

La société a également signalé que des groupes de piratage informatique, notamment ceux liés au gouvernement chinois, avaient tenté d’exploiter Claude dans le cadre de cyberattaques réelles. Dans un cas documenté, Anthropic a découvert qu’un groupe parrainé par l’État chinois avait déjà mené une campagne coordonnée utilisant Claude Code pour infiltrer environ 30 organisations (y compris des entreprises technologiques, des institutions financières et des agences gouvernementales) avant que l’entreprise ne le détecte. Au cours des dix jours suivants, Anthropic a enquêté sur toute l’ampleur de l’opération, a interdit les comptes impliqués et a informé les organisations concernées.

Une retraite exécutive exclusive

La fuite d’informations pas encore publiques semble être due à une erreur des utilisateurs du système de gestion de contenu (CMS) de l’entreprise, qui est le logiciel utilisé pour publier le blog public de l’entreprise, selon les professionnels de la cybersécurité.

Les actifs numériques créés à l’aide du système de gestion de contenu sont définis comme publics par défaut et se voient généralement attribuer une URL accessible au public lors du téléchargement, à moins que l’utilisateur ne modifie explicitement un paramètre pour garder ces actifs privés. En conséquence, un grand nombre d’images, de fichiers PDF et de fichiers audio semblent avoir été publiés par erreur sur une URL non sécurisée et accessible au public via le système de gestion de contenu disponible dans le commerce.

Anthropic a reconnu dans une déclaration à Fortune qu ‘”un problème avec l’un de nos outils CMS externes rendait le contenu brouillon accessible”. Il a attribué ce problème à une « erreur humaine ».

De nombreux documents semblaient être des éléments abandonnés ou inutilisés provenant de précédents articles de blog, tels que des images, des bannières et des logos. Cependant, plusieurs semblaient être des documents privés ou internes. Par exemple, un actif a un titre qui décrit le « congé parental » d’un employé.

Les documents comprenaient également un PDF contenant des informations sur une prochaine retraite sur invitation uniquement pour les PDG d’entreprises européennes qui se tiendra au Royaume-Uni et à laquelle participera le PDG d’Anthropic, Dario Amodei. Les noms des autres participants ne sont pas répertoriés, mais ils sont décrits comme les dirigeants d’entreprise les plus influents d’Europe.

La retraite de deux jours est décrite comme un « rassemblement intime » pour une « conversation réflexive » dans un manoir du XVIIIe siècle transformé en hôtel et spa dans la campagne anglaise. Le document indique que les participants entendront des législateurs et des décideurs politiques expliquer comment les entreprises adoptent l’IA et découvriront les capacités inédites de Claude.

Un porte-parole d’Anthropic a déclaré à Fortune que l’événement “fait partie d’une série d’événements que nous avons organisés au cours de l’année écoulée. Nous sommes impatients d’accueillir des chefs d’entreprise européens pour discuter de l’avenir de l’IA”.

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici