Anthropic affirme que son dernier modèle obtient une note d’« équité » politique de 94 % | Fortune

Anthropic a souligné sa neutralité politique alors que l’administration Trump intensifie sa campagne contre la soi-disant « IA éveillée », se plaçant au centre d’un combat de plus en plus idéologique sur la manière dont les grands modèles linguistiques devraient parler de politique.

Dans un article de blog publié jeudi, Anthropic a détaillé ses efforts en cours pour former son chatbot Claude à se comporter avec ce qu’il appelle « l’impartialité politique », un cadre destiné à garantir que le modèle traite les points de vue opposés « avec une profondeur, un engagement et une qualité d’analyse égales ».

L’entreprise a également lancé une nouvelle méthode automatisée de mesure des préjugés politiques et publié des résultats suggérant que son dernier modèle, Claude Sonnet 4.5, surpasse ou égale ses concurrents en termes de neutralité.

Cette annonce intervient dans un contexte de pression politique inhabituellement forte. En juillet, le président Donald Trump a signé un décret interdisant aux agences fédérales d’acquérir des systèmes d’intelligence artificielle qui « sacrifient la véracité et l’exactitude au profit de programmes idéologiques », mentionnant explicitement les initiatives de diversité, d’équité et d’inclusion comme des menaces pour « une IA digne de confiance ».

Et David Sacks, le tsar de l’IA à la Maison Blanche, a publiquement accusé Anthropic de promouvoir l’idéologie libérale et de tenter de « s’emparer de la réglementation ».

Certes, Anthropic note dans le billet de blog qu’il a formé Claude à avoir des traits de caractère « d’équité » depuis début 2024. Dans des articles de blog précédents, dont un de février 2024 sur les élections, Anthropic mentionne qu’ils ont testé leur modèle pour voir comment il fonctionne contre les « abus électoraux », y compris « la désinformation et les préjugés ».

Cependant, la société de San Francisco doit désormais démontrer sa neutralité politique et se défendre contre ce que le PDG d’Anthropic, Dario Amodei, a qualifié de “récente vague d’affirmations inexactes”.

Dans une déclaration à CNBC, il a ajouté : « Je crois pleinement qu’Anthropic, l’administration et les dirigeants de tout le spectre politique veulent la même chose : garantir que la puissante technologie d’IA profite au peuple américain et que les États-Unis avancent et assurent leur leadership dans le développement de l’IA. »

En fait, l’initiative de neutralité de l’entreprise va bien au-delà du langage marketing typique. Anthropic affirme avoir réécrit le système de Claude (ses instructions permanentes) pour inclure des lignes directrices telles que le fait d’éviter les opinions politiques non sollicitées, de s’abstenir de toute rhétorique persuasive, d’utiliser une terminologie neutre et d’être capable de « passer le test idéologique de Turing » lorsqu’on lui demande d’exprimer des points de vue opposés.

L’entreprise a également formé Claude à éviter d’influencer les utilisateurs sur des « questions politiques à enjeux élevés », sous-entendant qu’une idéologie est supérieure et poussant les utilisateurs à « remettre en question leurs points de vue ».

L’évaluation d’Anthropic a révélé que Claude Sonnet 4.5 a obtenu une note « d’équité » de 94 %, à peu près à égalité avec Gemini 2.5 Pro de Google (97 %) et Grok 4 d’Elon Musk (96 %), et supérieure à GPT-5 d’OpenAI (89 %) et Llama 4 de Meta (66 %). Claude a également montré de faibles taux de rejet, ce qui signifie que le modèle était généralement disposé à affronter les deux côtés des arguments politiques plutôt que de refuser par prudence.

Les entreprises du secteur de l’IA (OpenAI, Google, Meta, xAI) sont obligées de s’adapter aux nouvelles règles de passation des marchés de l’administration Trump et à un environnement politique dans lequel les plaintes « partiales » peuvent devenir des risques commerciaux très médiatisés.

Mais Anthropic en particulier a fait face à des attaques amplifiées, en partie à cause de ses avertissements passés concernant la sécurité de l’IA, de sa base d’investisseurs de tendance démocrate et de sa décision de restreindre certains cas d’utilisation par les forces de l’ordre.

“Nous continuerons à être honnêtes et directs et à défendre les politiques que nous pensons justes”, a écrit Amodei sur son blog. “Les enjeux de cette technologie sont trop importants pour que nous puissions agir autrement.”

Correction, 14 novembre 2025 : une version antérieure de cet article a mal interprété la chronologie d’Anthropic et a poussé à la formation sur les préjugés politiques dans son modèle d’IA. La formation a débuté début 2024.

spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici