Bienvenue dans Eye on AI, avec la journaliste Sharon Goldman. Dans cette édition : Trump a un problème de centre de données d’IA avant les élections de mi-mandat… Ne comptez pas sur l’IA pour déclarer vos impôts… L’outil d’IA d’Anthropic, Claude, est essentiel à la campagne américaine en Iran, au milieu d’un conflit amer.
Le débat sur la sécurité de l’IA se concentre souvent sur la technologie elle-même : quelle puissance les modèles pourraient devenir ou quels risques ils pourraient présenter. Mais le conflit de cette semaine impliquant Anthropic, OpenAI et le Pentagone met en évidence un problème plus profond : le pouvoir sur l’avenir de l’IA est concentré entre les mains d’un petit nombre de dirigeants d’entreprises et de responsables gouvernementaux qui décident de la manière dont ces systèmes sont construits, déployés et utilisés.
Depuis des années, les critiques de l’industrie mettent en garde contre le risque de « capture industrielle », un avenir dans lequel le développement de puissants systèmes d’IA est concentré dans une poignée d’entreprises travaillant en étroite collaboration avec les gouvernements, laissant la sécurité de ces systèmes dépendre des incitations et des rivalités de ceux qui les dirigent. En 2023, par exemple, le chercheur Yoshua Bengio a déclaré que la possibilité que le secteur de l’IA soit contrôlé par quelques entreprises était le « problème numéro deux » derrière les risques existentiels posés par la technologie.
Il n’est donc pas particulièrement rassurant de lire hier le mépris que le PDG d’Anthropic, Dario Amodei, a exprimé envers le PDG d’OpenAI, Sam Altman, dans une note divulguée qu’Amodei a écrite aux employés vendredi. La missive en colère d’Amodei, qui a apparemment été envoyée via Slack d’Anthropic à tous ses employés, est intervenue après qu’OpenAI a annoncé un accord pour fournir de l’IA au Pentagone et que le secrétaire à la Guerre Pete Hegseth a déclaré qu’il déclarait Anthropic comme un « risque pour la chaîne d’approvisionnement » pour ne pas parvenir à un accord similaire.
Amodei a qualifié les messages d’OpenAI de « menteurs », de « théâtre de sécurité » et « d’exemple de qui ils sont réellement », tout en décrivant de nombreux commentaires d’Altman comme des « mensonges purs et simples » et des « vœux pieux ».
Altman a pris ses propres photos publiques d’Anthropic. Il a récemment qualifié l’une des campagnes du Super Bowl de l’entreprise de « clairement malhonnête » et l’a accusée de « double langage ». Et la rivalité est également devenue visible de manière plus symbolique : lors d’un récent sommet, Altman et Amodei sont devenus viraux pour avoir refusé de se tenir la main pour une photo de groupe avec le Premier ministre Narendra Modi.
Depuis que le gouvernement américain a pris peu de mesures pour réglementer l’IA (et que les efforts internationaux en matière de sécurité de l’IA sont largement au point mort), le monde s’est effectivement appuyé sur l’autorégulation de l’industrie. OpenAI et Anthropic ont publiquement soutenu ce paradigme et signé des engagements volontaires en matière de sécurité. Ils ont également collaboré à l’occasion pour mener des évaluations de sécurité indépendantes de leurs modèles respectifs avant que ces modèles ne soient publiés.
Mais alors que les dirigeants des deux laboratoires d’IA les plus influents ne s’entendent manifestement pas et que la concurrence entre eux est si féroce, une question inconfortable se pose : à quel degré de coopération en matière de sécurité pouvons-nous raisonnablement espérer ?
La pression concurrentielle a déjà affecté les deux entreprises en matière de sécurité de l’IA. Anthropic a récemment révisé sa politique de mise à l’échelle responsable pour indiquer qu’elle ne s’abstiendrait plus unilatéralement de développer un nouveau modèle simplement parce qu’elle ne savait pas encore comment le rendre sûr. Et OpenAI a fait ses propres ajustements, supprimant les interdictions explicites sur les utilisations militaires et de guerre de ses politiques en 2024, et déplaçant son attention de la recherche sur la sécurité vers le développement de produits au point que l’ancien leader du super-alignement Jan Leike (qui a quitté Anthropic à la mi-2024) a écrit sur X que chez OpenAI « la culture et les processus de sécurité ont pris le pas sur les produits brillants ».
L’approche actuelle en matière de sécurité suppose que les entreprises et les gouvernements feront finalement preuve de retenue. Mais l’avenir de la sécurité de l’IA pourrait en fin de compte dépendre de la manière dont un petit nombre d’acteurs puissants font face aux pressions de la concurrence, de la géopolitique et, parfois, du feuilleton de la Silicon Valley.
FORTUNE EN IA
Pourquoi le fonds spéculatif AI de Leopold Aschenbrenner parie gros sur les sociétés d’électricité et les mineurs de Bitcoin pour alimenter la course à la « superintelligence » – par Sharon Goldman
OpenAI voit le nombre d’utilisateurs du Codex atteindre 1,6 million et positionne l’outil de codage comme une passerelle vers les agents d’IA pour les entreprises – par Jeremy Kahn
La startup coréenne wrtn est en passe de dépasser les 100 millions de dollars de revenus annuels récurrents, en capitalisant sur le boom du divertissement par l’IA alimenté par une épidémie de solitude – par Nicolas Gordon
L’IA DANS L’ACTUALITÉ
Trump a un problème de centre de données IA avant les élections de mi-mandat. CNBC et d’autres ont rapporté que le président Trump est confronté à un dilemme politique croissant alors que les États-Unis se précipitent pour construire des centres de données d’IA à forte consommation d’énergie avant les élections de mi-mandat de 2026. L’infrastructure nécessaire pour alimenter le boom de l’IA suscite des inquiétudes quant à la hausse des prix de l’électricité et à la pression sur le réseau, suscitant des réactions négatives de la part des électeurs et des communautés locales. En réponse, les grandes entreprises technologiques (dont OpenAI, Microsoft, Google, Amazon, Meta et Oracle) se sont engagées à couvrir les coûts d’énergie et d’infrastructure associés à leurs centres de données d’IA afin que les consommateurs n’aient pas à payer des factures de services publics plus élevées. L’accord volontaire, promu par la Maison Blanche comme un moyen d’apaiser les inquiétudes des électeurs, reflète une tension plus large : les décideurs politiques veulent bénéficier des avantages économiques et géopolitiques d’une expansion rapide de l’IA, mais les énormes besoins en électricité de cette technologie créent des pressions politiques et environnementales qu’il est de plus en plus difficile d’ignorer.
Ne comptez pas sur l’IA pour déclarer vos impôts. Dans des résultats qui ne devraient surprendre personne, un test du New York Times a révélé que l’IA n’est pas à la hauteur du code fiscal américain, soulignant une limitation majeure des chatbots IA actuels : ils ont toujours du mal à effectuer des tâches qui nécessitent un raisonnement précis en plusieurs étapes. Pour évaluer la capacité de la technologie à produire une déclaration de revenus fédérale, le journal a testé quatre chatbots IA (Gemini de Google, ChatGPT d’OpenAI, Claude d’Anthropic et Grok de xAI) pour voir dans quelle mesure ils s’en sortaient dans huit situations fiscales fictives. Ils ont lutté avec acharnement et ont mal calculé le remboursement ou le montant dû à l’Internal Revenue Service de plus de 2 000 dollars en moyenne. Même lorsqu’on leur a fourni tout le matériel nécessaire, y compris tous les formulaires à remplir, les chatbots ont échoué dans certains calculs. Le problème reflète une limitation fondamentale des grands modèles linguistiques : ils sont conçus pour prédire des mots probables plutôt que pour suivre avec précision des informations complexes et interconnectées, ce qui les rend efficaces dans l’écriture et la synthèse, mais plus faibles dans les tâches procédurales telles que la déclaration des impôts. Les experts affirment que les systèmes peuvent s’améliorer avec des outils de raisonnement supplémentaires et des couches de vérification, mais pour l’instant, ils fonctionnent mieux comme assistants que comme remplaçants, un autre rappel que même si l’IA remodèle les industries du codage à la médecine, certaines tâches apparemment plus simples restent étonnamment difficiles.
Claude, l’outil d’intelligence artificielle d’Anthropic, est essentiel à la campagne américaine en Iran, au milieu d’un conflit amer. Un nouveau rapport du Washington Post souligne la rapidité avec laquelle l’IA est passée de l’expérimentation au champ de bataille. Selon le document, l’armée américaine a utilisé un système de ciblage basé sur l’IA appelé Maven Smart System (construit par Palantir et incorporant le modèle Claude d’Anthropic) pour aider à identifier et prioriser les cibles lors des récentes opérations américaines en Iran, accélérant ainsi ce qui prenait auparavant des semaines de planification militaire vers une prise de décision en temps quasi réel. Cependant, ce déploiement intervient au milieu d’un conflit amer entre Anthropic et le Pentagone sur les limites de la manière dont sa technologie peut être utilisée dans la guerre, y compris des préoccupations concernant les armes autonomes et la surveillance de masse. Cet épisode souligne à la fois l’importance stratégique croissante des systèmes d’IA de pointe et la tension entre la demande du gouvernement pour un déploiement rapide et les tentatives des entreprises d’établir des limites de sécurité.
OEIL SUR LES CHIFFRES DE L’IA25 milliards de dollars
C’est le montant des revenus annualisés qu’OpenAI générait à la fin du mois dernier, selon un rapport de The Information – une augmentation de 17 % par rapport aux 21,4 milliards de dollars annualisés qu’il avait à la fin de l’année, selon deux personnes familières avec les chiffres.
OpenAI génère toujours plus de revenus que son plus proche rival, Anthropic, même si l’écart se réduit rapidement. Le chiffre d’affaires annualisé d’Anthropic a récemment dépassé les 19 milliards de dollars, soit près du triple de ce qu’il était à la fin de l’année dernière et en hausse de 36 % au cours des deux dernières semaines seulement.
OpenAI calcule les revenus annualisés en multipliant par 12 les revenus des quatre semaines précédentes. Une source a déclaré que si l’entreprise extrapolait les pics de revenus au cours de la semaine la plus récente, son taux d’exécution annualisé serait plus proche de 30 milliards de dollars.
La croissance rapide d’Anthropic est en partie due à la forte demande pour ses modèles d’IA axés sur le codage, qui ont aidé l’entreprise à combler rapidement l’écart de revenus avec OpenAI. Pas plus tard qu’en 2025, OpenAI générait environ trois fois plus de revenus qu’Anthropic.
VOUS AVEZ UN CALENDRIER
2-5 mars : Mobile World Congress, Barcelone, Espagne.
12-18 mars : Sud par sud-ouest, Austin, Texas.
16-19 mars : Nvidia GTC, San Jose, Californie.
6-9 avril : HumanX, San Francisco.


