
Ce dernier aveu, intervenu après des semaines au cours desquelles Anthropic avait initialement laissé entendre dans ses communications que tout allait bien et que les utilisateurs étaient en grande partie responsables des problèmes de performances, puis avait déclaré que certaines des modifications avaient été apportées au bénéfice des utilisateurs, n’a pas fait grand-chose pour calmer les clients d’Anthropic, dont certains affirment avoir déjà annulé leur abonnement.
Le sentiment parmi certains utilisateurs qu’Anthropic les a induits en erreur sape potentiellement les tentatives d’Anthropic de se présenter comme plus transparente et plus alignée avec ses utilisateurs que son rival OpenAI. Le fait d’admettre qu’il y avait des problèmes de performances n’a pas non plus fait grand-chose pour apaiser les spéculations généralisées selon lesquelles l’entreprise serait à court de ressources informatiques et que les efforts d’Anthropic pour rationner la précieuse puissance de calcul étaient la véritable raison des problèmes de performances.
“La demande de Claude a augmenté à un rythme sans précédent et nos infrastructures ont été mises à rude épreuve pour y répondre, en particulier pendant les heures de pointe”, a déclaré Anthropic dans une déclaration à Fortune. “Nous faisons tout notre possible pour résoudre ce problème et sommes profondément reconnaissants de la patience de nos utilisateurs.”
La déclaration poursuit en disant que “l’informatique est une contrainte à l’échelle de l’industrie, et nous faisons évoluer notre informatique rapidement et de manière responsable, notamment grâce à une expansion récemment annoncée de notre partenariat avec Amazon et Google, qui apportera une nouvelle capacité en ligne significative dans les mois à venir. Notre priorité est de mettre cette capacité entre les mains de nos utilisateurs le plus rapidement possible.”
La société a également rejeté toute affirmation selon laquelle elle n’aurait pas été transparente avec ses utilisateurs sur les problèmes affectant Claude Code. “Les problèmes liés à Code Claude avaient des causes techniques spécifiques que nous avons entièrement documentées dans notre autopsie, et des correctifs sont maintenant soumis”, indique le communiqué.
Anthropic a basé une grande partie de son récent succès sur la fidélité des développeurs. Son outil Claude Code, sorti début 2025, est populaire auprès des développeurs individuels et des équipes d’ingénierie d’entreprise. L’énorme succès de l’outil a contribué à porter le taux de revenus récurrents annualisé de l’entreprise à 30 milliards de dollars, soit plus du triple de son chiffre de la fin de l’année dernière. Cependant, les baisses de performances au fil des semaines et la lenteur de réponse du laboratoire aux plaintes des utilisateurs, ainsi que plusieurs changements qui, selon les utilisateurs, équivalent à des augmentations de prix furtives, mettent cette fidélité à l’épreuve.
La controverse pourrait affecter les résultats d’Anthropic au milieu d’une course de plus en plus acharnée avec son rival OpenAI. Ces problèmes surviennent également à un moment critique, alors que les deux sociétés se prépareraient à des introductions en bourse plus tard cette année.
Le dernier aveu d’Anthropic est susceptible de s’ajouter aux spéculations déjà répandues selon lesquelles le laboratoire pourrait souffrir de contraintes informatiques après la montée en flèche de l’utilisation de ses produits ces derniers mois.
Au-delà des problèmes de performances avec Claude Code, l’AI Lab a également subi une série de pannes à mesure que l’utilisation augmentait, a introduit des limites d’utilisation pendant les heures de pointe et limite la sortie de son modèle le plus récent, le plus grand et le plus cher, Mythos, à un groupe sélectionné de grandes entreprises. (Anthropic a déclaré que le lancement prudent du modèle visait à se protéger contre les risques de sécurité posés par les cybercapacités sans précédent du modèle.)
Les concurrents de l’entreprise ont également alimenté les rumeurs selon lesquelles le laboratoire pourrait manquer de l’informatique nécessaire pour maintenir sa récente augmentation de clientèle. Dans une note interne rapportée pour la première fois par CNBC, le directeur des revenus d’OpenAI a affirmé qu’Anthropic avait commis un « faux pas stratégique » en ne sécurisant pas suffisamment de calcul et qu’il « opérait sur une courbe nettement plus petite » que ses concurrents. Notamment, Anthropic a annoncé moins de contrats de plusieurs millions de dollars pour la capacité des centres de données que certains de ses concurrents comme OpenAI. Alors que d’autres sociétés d’IA sont également confrontées à des limitations informatiques, Anthropic semble être dans la position la plus difficile, ayant connu une croissance beaucoup plus rapide que prévu.
Anthropic a refusé de répondre aux questions de CNBC sur le mémo. Anthropic a également déclaré publiquement qu’elle ne dégradait pas intentionnellement les performances de ses modèles Claude.
La société semble également tester des moyens possibles de limiter les nouveaux accès à Claude Code. Plus tôt cette semaine, Anthropic a mis à jour sa page de tarification pour certains utilisateurs afin d’indiquer que Claude Code n’est pas disponible sur le forfait Pro à 20 $ par mois de l’entreprise. Le responsable de la croissance d’Anthropic a déclaré plus tard que le changement avait été testé sur environ 2 % des nouvelles inscriptions, ajoutant que les modèles d’utilisation avaient « fondamentalement changé » depuis l’élaboration des plans. Par ailleurs, The Information a rapporté qu’Anthropic avait modifié sa tarification d’entreprise vers un modèle basé sur la consommation, une décision qui, selon un analyste, pourrait potentiellement tripler les coûts pour les utilisateurs réguliers.
Réaction de l’utilisateur
Anthropic a été confronté à des réactions négatives importantes de la part de certains de ses utilisateurs expérimentés suite aux récents problèmes de performances de Claude Code. Plusieurs ont déclaré avoir annulé leurs abonnements ; Les professionnels de la cybersécurité ont mis en garde contre une qualité de code potentiellement dangereusement dégradée ; et un cadre supérieur d’AMD AI a qualifié l’outil de “inutilisable pour des tâches d’ingénierie complexes”.
Les utilisateurs se sont plaints de se sentir « excités » par la réponse de l’entreprise à leurs plaintes continues concernant les performances de l’outil de cryptage. Un
“J’apprécie l’autopsie, mais je ne suis pas sûr que tous les problèmes soient résolus. Claude Code, dans l’ensemble, m’a à peine été utilisable ces derniers jours”, a déclaré un autre.
Dans un article publié jeudi sur son blog d’ingénierie, Anthropic a déclaré avoir attribué les problèmes à trois changements distincts. Le premier, publié le 4 mars, a réduit l’effort de raisonnement par défaut de Claude Code de « élevé » à « moyen » pour réduire la latence, un compromis que la société a déclaré dans le billet de blog comme étant incorrect. Le deuxième changement, livré le 26 mars, contenait un bug qui faisait que le modèle rejetait continuellement son propre historique de raisonnement en cours de session, le faisant paraître oublieux et erratique, et épuisant les limites d’utilisation des utilisateurs plus rapidement que prévu. Le troisième, introduit le 16 avril, ajoutait une instruction d’avertissement système qui limitait les réponses du modèle à 25 mots entre les appels à l’outil, un changement qui, selon Anthropic, nuisait de manière mesurable à la qualité du codage avant d’être annulé quatre jours plus tard.
Anthropic a noté que les trois problèmes avaient été résolus le 20 avril et que l’API n’avait pas été affectée du tout au tout. Le 23 avril, la société a rétabli les limites d’utilisation pour tous les abonnés.
L’entreprise a reconnu la frustration des utilisateurs à l’égard de l’outil, déclarant : « Ce n’est pas l’expérience que les utilisateurs devraient attendre de Claude Code ». Le laboratoire a également promis une plus grande transparence concernant les modifications apportées au Code Claude à l’avenir.
Malgré la reconnaissance publique d’Anthropic, certains utilisateurs se sont tournés vers les réseaux sociaux pour exprimer leur frustration face à la réponse initiale du laboratoire aux inquiétudes des utilisateurs concernant les performances de Claude.
“Ce qui est frustrant, c’est que l’équipe de Claude Code, ainsi que des personnes profondément embourbées par la psychose de l’IA, ont critiqué tous ceux qui expriment des inquiétudes concernant les récents problèmes de Claude Code”, a déclaré Muratcan Koylan, membre de l’équipe technique de Sully.ai, dans un article sur
Cette réaction risque de pousser certains des utilisateurs expérimentés d’Anthropic vers son rival OpenAI, dont les récents modèles Codex ont également été populaires auprès des développeurs. Jeudi, OpenAI a également lancé GPT-5.5, son dernier modèle d’IA, aux abonnés payants. La société a déclaré qu’elle comptait désormais 4 millions d’utilisateurs actifs du Codex, 9 millions de clients professionnels payants, 900 millions d’utilisateurs actifs hebdomadaires sur ChatGPT et plus de 50 millions d’abonnés. Anthropic n’a pas publié de chiffres d’utilisateurs comparables. La société a divulgué des statistiques commerciales, notamment plus de 300 000 entreprises clientes, mais n’a pas divulgué le nombre d’abonnés ou d’utilisateurs actifs. Le site indépendant de trafic d’applications et de trafic Web Similarweb a rapporté que les utilisateurs actifs mensuels de l’application Claude d’Anthropic avaient atteint 20 millions fin février et que la croissance des utilisateurs avait plus que doublé d’un mois à l’autre en mars.
Les problèmes avec Claude Code semblent avoir affecté de manière significative la qualité du code produit par les outils Anthropic au cours du mois dernier, notamment par rapport aux offres d’OpenAI.
L’analyse de la société de sécurité du chiffrement Veracode a révélé que Claude Opus 4.7, le dernier modèle Claude d’Anthropic, sorti le 16 avril, introduisait une vulnérabilité dans 52 % des tâches de chiffrement testées, contre 51 % pour l’Opus 4.1 et 50 % pour le Claude Sonnet 4.5, moins coûteux. Veracode a constaté que les modèles OpenAI fonctionnaient nettement mieux, introduisant des vulnérabilités dans environ 30 % des tâches.
Dave Kennedy, PDG de la société de cybersécurité TrustedSec et ancien officier du renseignement du Corps des Marines des États-Unis, a déclaré à Forbes que son équipe avait mesuré une baisse de 47 % de la qualité du code de Claude, du suivi des défauts, des problèmes de sécurité et des taux d’achèvement des tâches. Le risque, a prévenu Kennedy, est que les développeurs novices utilisant Claude ne parviennent pas à détecter les bogues, « introduisant de graves défauts » dans le code de production.
En réponse au message le plus récent d’Anthropic, Kennedy a déclaré : “Je suis content qu’ils essaient de résoudre ce problème, mais un mois pour le publier, c’est nul.”



