
La société d’intelligence artificielle de haut vol Anthropic est confrontée à des réactions négatives de la part de certains de ses utilisateurs les plus prolifiques suite à une baisse perçue des performances de ses modèles Claude AI.
Ces problèmes ont laissé l’entreprise – récemment évaluée à 380 milliards de dollars et qui se dirigeait apparemment vers une introduction en bourse – en difficulté pour répondre à la révolte des utilisateurs et aux spéculations en ligne sur ses motivations et sa capacité à servir sa nouvelle vague de clients.
Le populaire modèle Claude AI d’Anthropic a récemment connu une baisse significative de ses performances, selon de nombreux développeurs et utilisateurs réguliers, qui affirment que le modèle ne suit de plus en plus les instructions, opte pour des raccourcis parfois inappropriés et commet davantage d’erreurs dans des flux de travail complexes.
Les plaintes semblent être liées aux récents changements qu’Anthropic a discrètement apportés à la façon dont Claude fonctionne, réduisant le niveau « d’effort » par défaut du modèle pour économiser sur le nombre de jetons, ou d’unités de données, que le modèle traite en réponse à chaque demande. (Un porte-parole d’Anthropic a déclaré publiquement que le changement était répertorié dans le journal des modifications, une liste mise à jour des mises à jour disponibles pour les utilisateurs.)
Plus il y a de jetons traités par tâche, plus cette tâche consomme de puissance de calcul. Et de nombreuses spéculations circulent selon lesquelles Anthropic, qui a annoncé moins d’accords de plusieurs milliards de dollars pour la capacité des centres de données que certains de ses concurrents, pourrait être à court de ressources informatiques après l’essor de ses produits ces derniers mois.
Le mécontentement des utilisateurs face à la baisse soudaine des performances de Claude et la colère face au prétendu manque de transparence d’Anthropic pourraient potentiellement faire dérailler la croissance fulgurante de l’entreprise, tout comme elle espère attirer des investisseurs pour une éventuelle introduction en bourse. Les affirmations selon lesquelles Anthropic n’a pas dit la vérité sur les changements qu’elle a apportés au mode de fonctionnement de Claude ou sur la manière dont les changements pourraient augmenter le coût d’utilisation de Claude sont particulièrement menaçantes pour Anthropic car, plus que toute autre société d’IA, elle a cherché à bâtir une réputation de marque en étant plus transparente que les autres sociétés d’IA et plus alignée sur les intérêts de ses utilisateurs.
Anthropic a refusé de répondre aux questions spécifiques de Fortune concernant la plainte de l’utilisateur de Claude. Boris Cherny, le responsable d’Anthropic qui dirige le produit Claude Code, a répondu aux plaintes des utilisateurs en ligne en affirmant qu’Anthropic avait réduit “l’effort” par défaut que Claude faisait pour répondre aux demandes des utilisateurs à “moyen” en réponse aux commentaires des utilisateurs selon lesquels Claude consommait auparavant trop de jetons par tâche. Mais de nombreux utilisateurs se sont plaints du fait que l’entreprise n’avait pas signalé ce changement aux utilisateurs.
La situation a suscité de nombreuses spéculations et accusations, y compris de la part de certains de ses concurrents, selon lesquelles l’entreprise dégraderait délibérément ses performances en raison d’un manque de puissance de calcul.
Dans l’ensemble du secteur, les entreprises d’IA sont confrontées à une hausse des coûts des GPU, à une expansion limitée des centres de données et à des compromis difficiles sur les produits à prioriser, car la demande de systèmes d’IA « agents » s’accélère plus rapidement que l’infrastructure ne peut évoluer. Bien qu’un porte-parole d’Anthropic ait déclaré publiquement que le laboratoire d’IA ne déclassait pas ses modèles pour mieux répondre à la demande, il y a des raisons de croire que l’entreprise est confrontée à des limitations plus aiguës que certains concurrents.
Anthropic a récemment subi une série de pannes à mesure que l’utilisation augmentait et a introduit des limites d’utilisation plus strictes pendant les heures de pointe, suscitant des plaintes de certains utilisateurs. Dans une note interne rapportée par CNBC, le directeur des revenus d’OpenAI a également affirmé qu’Anthropic avait commis un « faux pas stratégique » en ne garantissant pas suffisamment de capacité de calcul et qu’il « opérait sur une courbe nettement plus petite » que ses concurrents. (Anthropic a refusé de répondre aux questions de CNBC sur ces affirmations.)
Pendant ce temps, Anthropic a également annoncé la semaine dernière avoir formé un nouveau modèle encore à paraître appelé Mythos, qui est nettement plus performant que son modèle Opus AI, mais qui est également plus grand et plus coûteux à exécuter, ce qui signifie qu’il consomme probablement plus de puissance de calcul que les modèles précédents. Anthropic a souligné qu’il ne rend pas encore le modèle accessible au grand public pour des raisons de sécurité, mais certains se demandent si Anthropic ne dispose pas de suffisamment de puissance de calcul pour prendre en charge un large déploiement de Mythos.
Victime de son propre succès
L’examen minutieux d’Anthropic souligne la nature en évolution rapide du marché de l’IA et ses enjeux. La semaine dernière, Anthropic a surpris l’industrie en annonçant que ses revenus récurrents annualisés, ou ARR, s’élèvent désormais à 30 milliards de dollars, contre 9 milliards de dollars fin 2025. OpenAI a déclaré le mois dernier qu’elle générait 2 milliards de dollars de revenus par mois, soit 24 milliards de dollars par an, bien que les deux sociétés ne déclarent pas leurs revenus exactement de la même manière, ce qui rend les comparaisons directes problématiques.
Anthropic a récemment bénéficié d’un afflux de nouveaux utilisateurs, d’abord grâce à la popularité de son outil de codage d’IA, Claude Code, puis d’une vague de soutien des consommateurs suite à son litige avec le ministère américain de la Défense. De nombreux utilisateurs sont passés à Claude de concurrents tels que ChatGPT d’OpenAI après que l’administration Trump ait désigné Anthropic comme un « risque pour la chaîne d’approvisionnement ». Anthropic avait déclaré que le différend résultait de son insistance pour que le gouvernement américain accepte dans son contrat de ne pas utiliser la technologie de l’entreprise dans des armes mortelles autonomes ou pour la surveillance de masse des citoyens américains.
Ces dernières années, Anthropic a gagné du terrain dans la course à l’IA, devenant un leader de l’IA d’entreprise et générant une bonne volonté significative parmi les développeurs et les utilisateurs d’entreprise. Mais si la colère face aux problèmes de performance de Claude persiste, elle risque d’éroder une partie de cette bonne volonté et pourrait conduire l’entreprise à trébucher à un moment critique.
En réponse à certaines controverses entourant les récents problèmes de performances de Claude, Cherny, directeur de Claude Code, a déclaré que Claude Opus 4.6 (le modèle phare d’Anthropic) avait introduit la « pensée adaptative » début février, permettant au modèle de décider du degré de raisonnement à appliquer à une tâche donnée plutôt que d’utiliser un budget fixe. Début mars, Anthropic a également modifié le paramètre par défaut en un niveau « d’effort moyen », a déclaré Cherny. Bien que les utilisateurs de Claude Code puissent modifier manuellement les niveaux d’effort de l’outil, les utilisateurs qui paient pour les versions Pro de Cowork ou la version de bureau de Claude ne peuvent pas modifier les valeurs par défaut pour le moment.
Pour résoudre certains problèmes des utilisateurs, a déclaré Cherny, la société testera « les utilisateurs Teams et Enterprise par défaut avec de grands efforts, pour bénéficier d’une réflexion élargie, même si cela se fait au prix de jetons et de latence supplémentaires » à l’avenir.
Il a également rejeté les spéculations selon lesquelles le modèle avait été intentionnellement édulcoré et les plaintes des utilisateurs selon lesquelles le changement avait été mis en œuvre avec un manque de transparence, affirmant que les modifications avaient été apportées en réponse aux commentaires des utilisateurs et avaient été portées à l’attention des utilisateurs via une fenêtre contextuelle dans l’interface Claude Code.
« Inutilisable pour des tâches d’ingénierie complexes »
La plupart des plaintes des utilisateurs concernent Claude Code, l’outil de codage basé sur l’IA d’Anthropic, qui est devenu l’un des produits les plus populaires et à la croissance la plus rapide de l’entreprise.
Lancé début 2025, Claude Code fonctionne comme un agent de ligne de commande capable de lire, d’écrire et d’exécuter du code de manière autonome dans l’environnement d’un développeur. Depuis ses débuts, il a été largement adopté par des développeurs individuels et des équipes d’ingénierie de grandes entreprises qui l’utilisent pour des tâches de codage complexes en plusieurs étapes.
Les récents changements de performances de Claude Code ont attiré l’attention sur les réseaux sociaux grâce à une analyse GitHub qui semble provenir de Stella Laurenzo, directrice principale de l’IA chez AMD. Dans une analyse largement partagée, Laurenzo a déclaré que les changements avaient rendu Claude “inutilisable pour des tâches d’ingénierie complexes”.
Dans son analyse, il a constaté que de fin février à début mars, Claude est passé d’une approche « recherche d’abord » (lecture de plusieurs fichiers et collecte de contexte avant d’apporter des modifications) à un style plus direct « édition d’abord ». Selon l’analyse, le modèle lit moins de contexte avant d’agir, commet plus d’erreurs et nécessite beaucoup plus d’intervention de l’utilisateur. L’analyse souligne également une augmentation de comportements tels que s’arrêter trop tôt, éviter des responsabilités ou demander des autorisations inutiles, ce qui est lié à une réduction de la profondeur de la « réflexion » au cours de la même période.
“Claude a régressé au point qu’on ne peut plus lui faire confiance pour réaliser une ingénierie complexe”, écrit-il.
Dans un commentaire en réponse à l’analyse, Cherny d’Anthropic affirme que l’analyse interprète probablement mal au moins certaines des données, déclarant que le raisonnement du modèle n’a pas été réduit mais qu’Anthropic a apporté une modification afin que la « piste de raisonnement » complète du modèle ne soit plus visible pour l’utilisateur.
Mais Laurenzo est loin d’être la seule personne à avoir des problèmes avec l’outil.
“J’ai eu des séances incroyablement frustrantes avec Claude Code ces deux dernières semaines”, a écrit Dimitris Papailiopoulos, directeur principal de la recherche chez Microsoft, dans X. “J’ai fait de mon mieux, mais il est extrêmement négligent, ignore les instructions et répète les erreurs.”



