
Bienvenue dans Eye on AI, avec la journaliste Sharon Goldman. La machine à mèmes pro-Iran qui trolle Trump avec des dessins animés AI Lego… Andy Jassy d’Amazon défend la frénésie de dépenses d’Amazon de 200 milliards de dollars… OpenAI arrête le centre de données Stargate au Royaume-Uni, invoquant les coûts énergétiques.
Cela a été une autre de ces semaines folles dans le domaine de l’IA, Anthropic ayant choisi de ne pas publier son nouveau modèle Claude Mythos en raison de préoccupations concernant les risques de cybersécurité qu’il pose (et formant une coalition pour utiliser une première version du modèle pour renforcer les défenses de cybersécurité) ; Meta lance son premier modèle d’IA depuis l’embauche d’Alexandr Wang ; et des attentes croissantes concernant le prochain nouveau modèle « Spud » d’OpenAI.
La plupart de ces modèles d’IA sont alimentés par des GPU Nvidia, des puces d’IA sophistiquées et coûteuses (à plus de 30 000 dollars pièce) qui alimentent leur formation et leur production. Mais dans l’ensemble du secteur, l’accès à ces puces reste un goulot d’étranglement. Le président d’OpenAI, Greg Brockman, a par exemple déclaré que l’attribution de GPU à OpenAI était « une douleur et une souffrance ».
Cette semaine, lors de la conférence HumanX à San Francisco, j’ai découvert que même chez Nvidia, les GPU sont rares.
J’ai rencontré Bryan Catanzaro, qui dirige la recherche appliquée sur l’apprentissage profond chez Nvidia, supervisant les équipes travaillant sur les graphiques, la reconnaissance vocale et la simulation basés sur l’IA. Catanzaro a également été l’un des premiers, au début et au milieu des années 2010, à remarquer que des chercheurs utilisaient des GPU Nvidia pour entraîner des modèles d’IA, un signe qui a incité le PDG Jensen Huang à redoubler d’efforts en matière d’IA, ouvrant la voie à la course désormais historique de l’entreprise.
Cependant, aujourd’hui, même les équipes de Catanzaro ont du mal à accéder à suffisamment de GPU. “Mon équipe utilise l’IA très largement dans notre travail et leur principal reproche est qu’ils veulent des limites plus élevées”, m’a expliqué Catanzaro. “Ils veulent plus de GPU.”
« L’efficacité, c’est aussi l’intelligence »
En fait, il a déclaré que l’une de ses tâches principales consiste désormais simplement à sécuriser davantage de ressources informatiques pour ses équipes. “Nous disposons tous d’un approvisionnement limité”, a-t-il déclaré. « Jensen dira : « Désolé, Bryan, mais ils sont déjà vendus. » Nous fonctionnons dans ces limites. »
L’un des projets de Catanzaro a été de diriger l’équipe créant le Nemotron de Nvidia, une famille de modèles open source, ce qui signifie que les utilisateurs peuvent les télécharger librement pour les utiliser, les étudier ou les modifier. Pour être clair, Nvidia n’essaie pas de rivaliser dans la course à la construction de modèles avec des sociétés comme OpenAI et Anthropic. Au lieu de cela, il s’agit de les construire pour renforcer un écosystème de développeurs qui reste lié au matériel et aux logiciels Nvidia.
Les modèles Nemotron sont connus pour être particulièrement efficaces en termes de GPU. Et Catanzaro a déclaré que ce sont les mêmes limitations sur l’accès au GPU chez Nvidia lui-même qui poussent à rendre les modèles Nemotron plus efficaces. “Dans un monde où l’offre est limitée, l’efficacité est aussi une question d’intelligence”, a-t-il déclaré.
Ce n’est plus un projet scientifique
Mais étonnamment, l’efficacité n’est pas mauvaise pour les affaires. Catanzaro a déclaré que c’était le paradoxe de Jevon qui était en jeu : lorsque quelque chose devient plus efficace, la demande augmente souvent. “Les gens trouvent toutes sortes de nouvelles façons d’utiliser une chose lorsqu’elle devient plus efficace”, a-t-il déclaré.
Il reconnaît néanmoins que la visibilité croissante de Nemotron au sein de Nvidia a également permis de débloquer davantage de ressources. “Nous travaillons sur Nemotron depuis longtemps, mais ce n’est qu’au cours des six derniers mois qu’il a retenu davantage l’attention. À mesure que les gens de Nvidia comprennent mieux l’importance de ce travail, vous bénéficiez d’une meilleure narration, d’une meilleure collaboration et d’un plus grand soutien au sein de l’entreprise.”
Nvidia a réalisé, a-t-il ajouté, qu’elle ne pouvait plus adopter une approche non interventionniste de l’écosystème de l’IA. Dans le passé, Nvidia pouvait compter sur d’autres pour créer les modèles et les applications qui stimulaient la demande pour ses puces. Aujourd’hui, alors que l’IA devient plus compétitive et limitée par les puces, l’entreprise considère qu’elle peut jouer un rôle plus actif dans le développement de cet écosystème.
“Dans le passé, certaines personnes pensaient que nous pouvions laisser l’écosystème prendre soin de lui-même”, a-t-il déclaré. “Il est désormais beaucoup plus évident que Nvidia a un rôle plus important à jouer – une réelle responsabilité et une réelle opportunité avec Nemotron.”
Ce cadre contribue également à élever le travail de Nemotron au sein de Nvidia, où les équipes se disputent les rares ressources GPU. “Ce n’est pas un projet scientifique”, a déclaré Catanzaro. “Il ne s’agit pas seulement de demander des ressources pour mon équipe. Il s’agit de l’avenir de Nvidia.”
FORTUNE EN IA
Meta dévoile Muse Spark, son premier modèle d’IA depuis l’embauche d’Alexandr Wang et un indicateur du projet de plusieurs milliards de dollars du PDG Mark Zuckerberg, par Jeremy Kahn
Supermicro lance une enquête interne suite à l’arrestation du co-fondateur accusé de contrebande de puces d’une valeur de 2,5 milliards de dollars – par Amanda Gerut
Un employé de Meta a créé un tableau de bord pour que ses collègues puissent rivaliser pour devenir le premier utilisateur de jetons IA de l’entreprise (et Zuckerberg ne fait même pas partie du top 250) par Jacqueline Munis
L’IA DANS L’ACTUALITÉ
La machine à mèmes pro-iranienne qui trolle Trump avec des dessins animés AI Lego. Un nouveau rapport de Wired décrit comment un groupe de jeunes créateurs pro-iraniens appelé Explosive Media utilise des vidéos de style Lego générées par l’IA pour diffuser une propagande virale sophistiquée pendant le conflit actuel, touchant des millions de personnes sur TikTok, X et Instagram. Contrairement aux messages d’État traditionnels, les vidéos combinent humour, références culturelles sur Internet et narration simplifiée pour trouver un écho auprès du public américain, incorporant même des mèmes et du rap en anglais. Les chercheurs affirment que la stratégie est efficace car elle résume des événements géopolitiques complexes dans un contenu hautement partageable tout en exploitant le mécontentement existant aux États-Unis, illustrant comment les outils d’IA permettent un nouveau type de guerre de « slopagande », où les campagnes d’influence sont plus rapides, plus ciblées et beaucoup plus fluides sur le plan culturel que par le passé.
Andy Jassy d’Amazon défend la frénésie de dépenses d’Amazon de 200 milliards de dollars. GeekWire a rendu compte de la dernière lettre aux actionnaires du PDG d’Amazon, Andy Jassy, qui révèle que l’activité IA d’AWS a déjà atteint un taux de chiffre d’affaires annuel de 15 milliards de dollars, ce qui, selon Jassy, signifie que la demande est suffisamment forte pour justifier environ 200 milliards de dollars de dépenses en capital prévues. Jassy a présenté l’IA comme une opportunité « unique » et a positionné Amazon carrément au milieu de la « ruée vers le territoire » actuelle de l’IA, soulignant la demande croissante pour ses puces personnalisées comme Trainium (dont certaines sont déjà en grande partie en rupture de stock des années à l’avance), ainsi que l’intérêt des clients désireux de garantir une capacité future. La lettre indique clairement qu’Amazon parie de manière agressive sur la possession d’une plus grande partie de la pile d’IA, de l’infrastructure aux puces, et potentiellement sur la vente de ces capacités à l’extérieur.
OpenAI ferme le centre de données Stargate au Royaume-Uni, invoquant les coûts énergétiques. Selon Bloomberg, OpenAI suspend son projet de centre de données Stargate au Royaume-Uni, soulignant à quel point même les infrastructures d’IA les plus agressives se heurtent à des limitations du monde réel telles que les coûts énergétiques et la réglementation. Cette décision intervient alors que la société maîtrise ses dépenses avant une éventuelle introduction en bourse et se concentre sur son activité principale, ChatGPT, dans un contexte de concurrence croissante d’Anthropic et de Google. Même si OpenAI affirme voir encore un potentiel à long terme au Royaume-Uni, la décision souligne une réalité plus large : les paris massifs sur les infrastructures d’IA – du Texas à la Norvège en passant par les Émirats arabes unis – sont de plus en plus déterminés non seulement par l’ambition, mais aussi par l’économie, la géopolitique et l’accès à une énergie abordable.
ŒIL SUR LES CHIFFRES IA75%
Voici combien de dirigeants déclarent que leur stratégie d’IA est plus une question d’optique que de véritables conseils internes, selon le nouveau rapport 2026 sur l’adoption de l’IA en entreprise de Writer, qui a interrogé 2 400 travailleurs du savoir, dont 1 200 cadres supérieurs et 1 200 employés. De plus, 39 % n’ont aucun plan sur la manière dont l’IA génère réellement des revenus. Cependant, 69 % prévoient des licenciements cette année.
Dans un article sur LinkedIn, May Habib, PDG de l’écrivain, a qualifié cette tendance de « théâtre de l’IA » à son pire », ajoutant que « cette stratégie descendante déchire littéralement les entreprises ».
VOUS AVEZ UN CALENDRIER
8-10 juin : Fortune Brainstorm Tech, Aspen, Colorado. Demandez de l’aide ici.
6-11 juillet : Conférence internationale sur l’apprentissage automatique (ICML), Séoul, Corée du Sud.
7-10 juillet : Sommet AI for Good, Genève, Suisse.
4-6 août : Ai4, Las Vegas.



