
Le PDG d’Anthropic, Dario Amodei, ne pense pas que ce soit lui qui devrait prendre les décisions concernant les obstacles entourant l’IA.
“Je pense que je suis profondément mal à l’aise à l’idée que ces décisions soient prises par quelques entreprises, quelques personnes”, a déclaré Amodei. “Et c’est l’une des raisons pour lesquelles j’ai toujours plaidé en faveur d’une réglementation responsable et réfléchie de la technologie.”
« Qui vous a choisi, vous et Sam Altman ? » -Cooper a demandé.
“Personne. Honnêtement, personne”, a répondu Amodei.
Anthropic a adopté une philosophie de transparence sur les limites (et les dangers) de l’IA à mesure qu’elle continue de se développer, a-t-il ajouté. Avant la publication de l’interview, la société a déclaré avoir déjoué « le premier cas documenté de cyberattaque d’IA à grande échelle exécutée sans intervention humaine substantielle ».
Anthropic a déclaré la semaine dernière qu’elle avait fait un don de 20 millions de dollars à Public First Action, un super PAC axé sur la sécurité et la réglementation de l’IA, et qu’elle était directement opposée aux super PAC soutenus par des investisseurs rivaux d’OpenAI.
“La sécurité de l’IA reste la priorité absolue”, a déclaré Amodei à Fortune dans un article de couverture de janvier. “Les entreprises valorisent la confiance et la fiabilité”, dit-il.
Il n’existe aucune réglementation fédérale interdisant l’IA ou entourant la sécurité de la technologie. Alors que les 50 États ont introduit cette année une législation relative à l’IA et que 38 d’entre eux ont adopté ou promulgué des mesures de transparence et de sécurité, les experts de l’industrie technologique ont exhorté les entreprises d’IA à aborder la cybersécurité de toute urgence.
Au début de l’année dernière, Kevin Mandiat, expert en cybersécurité et PDG de Mandiant, a mis en garde contre la première attaque de cybersécurité par un agent d’IA qui se produirait dans les 12 à 18 prochains mois, ce qui signifie que la divulgation par Anthropic de l’attaque déjouée était des mois en avance sur le calendrier prévu par Mandia.
Amodei a souligné les risques à court, moyen et long terme associés à une IA sans entrave : la technologie introduira d’abord des préjugés et de la désinformation, comme c’est le cas actuellement. Il générera ensuite des informations nuisibles en utilisant des connaissances scientifiques et techniques améliorées, avant de finalement constituer une menace existentielle en supprimant l’action humaine, en devenant potentiellement trop autonome et en excluant les humains des systèmes.
Ces préoccupations reflètent celles du « parrain de l’IA », Geoffrey Hinton, qui a prévenu que l’IA aurait la capacité de déjouer et de contrôler les humains, peut-être au cours de la prochaine décennie.
La nécessité d’un contrôle plus approfondi et de mesures de protection de l’IA était au cœur de la création d’Anthropic en 2021. Amodei était auparavant vice-président de la recherche chez OpenAI de Sam Altman. Il a quitté l’entreprise en raison de divergences d’opinions sur les questions de sécurité de l’IA. (Jusqu’à présent, les efforts d’Amodei pour concurrencer Altman semblent efficaces : Anthropic a déclaré ce mois-ci qu’elle est désormais évaluée à 380 milliards de dollars. OpenAI est évalué à environ 500 milliards de dollars.)
“Il y avait un groupe d’entre nous au sein d’OpenAI qui, après avoir créé GPT-2 et GPT-3, avions une croyance très forte en deux choses”, a déclaré Amodei à Fortune en 2023. “L’une était l’idée que si vous injectez plus de calculs dans ces modèles, ils s’amélioreront de plus en plus et qu’il n’y a presque aucune fin à cela… Et la seconde était l’idée qu’il vous fallait autre chose que la simple mise à l’échelle des modèles, à savoir l’alignement ou la sécurité.”
Les efforts de transparence d’Anthropic
Alors qu’Anthropic continue d’étendre ses investissements dans les centres de données, l’entreprise a déployé certains de ses efforts pour combler les lacunes et les menaces en matière d’IA. Dans un rapport de sécurité de mai 2025, Anthropic a rapporté que certaines versions de son modèle Opus menaçaient de faire du chantage, par exemple en révélant qu’un ingénieur avait une liaison, pour éviter la fermeture. La société a également déclaré que le modèle d’IA répondait à des demandes dangereuses s’il recevait des instructions nuisibles, telles que la manière de planifier une attaque terroriste, qu’elle a déclaré avoir déjà corrigée.
En novembre dernier, la société a déclaré dans un article de blog que son chatbot Claude avait obtenu un taux d’impartialité politique de 94 %, surpassant ou égalant ses concurrents en termes de neutralité.
En plus des propres efforts de recherche d’Anthropic pour lutter contre la corruption technologique, Amodei a appelé à des efforts législatifs plus importants pour lutter contre les risques liés à l’IA. Dans un article d’opinion du New York Times de juin 2025, il a critiqué la décision du Sénat d’inclure une disposition dans le projet de loi du président Donald Trump qui imposerait un moratoire de 10 ans aux États réglementant l’IA.
“L’IA évolue trop vite”, a déclaré Amodei. “Je pense que ces systèmes pourraient changer fondamentalement le monde en deux ans ; dans 10 ans, tous les paris sont ouverts.”
Critique de l’Anthropo
La pratique d’Anthropic consistant à dénoncer ses propres erreurs et ses efforts pour y remédier a suscité des critiques. En réponse à Anthropic qui avait tiré la sonnette d’alarme concernant l’attaque de cybersécurité basée sur l’IA, Yann LeCun, alors scientifique en chef de l’IA chez Meta, a déclaré que l’avertissement était un moyen de manipuler les législateurs pour qu’ils limitent l’utilisation de modèles open source.
“Vous êtes induits en erreur par des gens qui veulent une capture réglementaire”, a déclaré LeCun dans un message X en réponse au message du sénateur du Connecticut Chris Murphy exprimant son inquiétude face à l’attaque. “Ils font peur à tout le monde avec des études douteuses afin que les modèles open source soient réglementés et qu’ils disparaissent.”
D’autres ont déclaré que la stratégie d’Anthropic est un « théâtre de sécurité » qui équivaut à une bonne image de marque mais n’offre aucune promesse de mise en œuvre de garanties dans la technologie.
Même certains employés d’Anthropic semblent avoir des doutes quant à la capacité d’une entreprise technologique à s’autoréguler. Au début de la semaine dernière, Mrinank Sharma, chercheur en sécurité chez Anthropic AI, a annoncé qu’il avait démissionné de l’entreprise, déclarant : « Le monde est en danger ».
“Tout au long de mon séjour ici, j’ai constaté à plusieurs reprises à quel point il est difficile de laisser nos valeurs gouverner nos actions”, a écrit Sharma dans sa lettre de démission. “Je l’ai constaté en moi-même, au sein de l’organisation, où nous sommes constamment confrontés à des pressions pour mettre de côté ce qui compte le plus, mais aussi dans l’ensemble de la société.”
Anthropic n’a pas immédiatement répondu à la demande de commentaires de Fortune.
Amodei a nié à Cooper qu’Anthropic se livrait à un « théâtre de sécurité », mais a admis dans un épisode du podcast Dwarkesh la semaine dernière que l’entreprise avait parfois du mal à équilibrer sécurité et bénéfices.
“Nous sommes soumis à une pression commerciale incroyable et nous nous rendons la tâche encore plus difficile parce que nous avons toutes ces choses de sécurité que nous faisons et je pense que nous en faisons plus que d’autres entreprises”, a-t-il déclaré.
Une version de cette histoire est apparue sur Fortune.com le 17 novembre 2025.
En savoir plus sur la réglementation de l’IA :



