Quand on pense à l’IA, la conversation mène invariablement à Nvidia. Le géant des semi-conducteurs est l’un des plus grands bénéficiaires de la vague de l’IA. L’entreprise a terminé son exercice financier avec un chiffre d’affaires de 130,5 milliards de dollars, soit plus du double de ce qu’elle avait gagné l’année précédente. Sa division centres de données a gagné à elle seule 115,2 milliards de dollars.
Cependant, fin novembre, le marché soulève une nouvelle question : que signifie « domination » lorsque ses plus gros consommateurs s’efforcent d’en avoir moins besoin ?
D’une part, Meta Platforms envisage de dépenser des milliards en unités de traitement tensoriel (TPU) de Google. Ils pourraient commencer à louer de la capacité l’année prochaine, puis utiliser les TPU dans leurs propres centres de données à partir de 2027.
L’IA nationale et les processeurs sur silicium personnalisés amènent Wall Street à reconsidérer la « domination » du marché dans ce secteur.
Photo de PATRICK T. FALLON de Getty Images
D’autre part, Baidu lance un plan quinquennal pour les puces IA afin de combler le vide laissé par Nvidia en Chine, où les limitations américaines à l’exportation ont un impact important.
Certaines estimations indiquent que Nvidia détient toujours 80 à 90 % du marché des accélérateurs d’IA, tandis que d’autres estiment qu’il pourrait atteindre 95 %.
Mais les dernières nouvelles des méta-plateformes montrent à quelle vitesse cette force est testée, des deux côtés de la chaîne d’approvisionnement mondiale de l’IA.
Les discussions sur les puces Google de Meta montrent à quel point la domination de Nvidia est fragile
Le point principal du premier article est simple et concret : l’un des plus gros clients de Nvidia est à la recherche d’une nouvelle offre.
Plusieurs sources affirment que Meta travaille sur un contrat qui lui permettrait de :
Louez des Google Cloud TPU à partir de 2026. À partir de 2027, placez des Google TPU dans vos propres centres de données.
Meta a déjà révisé ses prévisions de dépenses en capital pour 2025 entre 70 et 72 milliards de dollars, notamment pour créer des centres de données et des serveurs d’IA. C’est plus que la fourchette précédente et près de 30 milliards de dollars de plus que ce qu’il a dépensé en 2024 à mi-parcours.
En relation: Les tests AI Boost de Palantir sont des ours qui doutent qu’ils puissent continuer à gagner
Il est important que même une petite partie de cet argent passe des processeurs Nvidia aux processeurs Alphabet.
Nvidia domine toujours le marché des accélérateurs d’IA, mais un seul hyperscaler comme Meta peut représenter 10 à 10 ans de part de la demande. En fonction de la taille et du calendrier des déploiements, certaines estimations suggèrent qu’une transaction Meta-TPU pourrait coûter à Nvidia jusqu’à 10 % de ses ventes annuelles.
Les marchés l’ont remarqué. La valeur marchande de Nvidia a chuté de plus de 700 milliards de dollars depuis qu’elle a brièvement atteint 5 000 milliards de dollars en début d’année. Les actions d’Alphabet ont augmenté, rapprochant leur valeur marchande de 4 000 milliards de dollars alors que Wall Street commence à attribuer une valeur financière réelle aux ventes de TPU.
Plus de Nvidia :
Le boom de l’IA de Nvidia a-t-il déjà été pris en compte ? Oppenheimer ne le pense pas Morgan Stanley renouvelle l’objectif de cours de Nvidia avant le grand troisième trimestre Les investisseurs espèrent que les bonnes nouvelles de Nvidia ajouteront plus de vie au rallye Bank of America réinitialise les prévisions boursières de Nvidia avant les bénéfices AMD renverse le scénario sur Nvidia avec une nouvelle vision audacieuse
Morgan Stanley, par exemple, estime qu’Alphabet pourra expédier entre 500 000 et 1 million de TPU par an d’ici 2027. Chaque 500 000 unités supplémentaires contribuerait à environ 11 % aux revenus de Google Cloud et à 3 % au bénéfice par action d’Alphabet.
Cela n’élimine pas Nvidia du jeu du jour au lendemain. Mais cela change le débat de « Est-il possible pour n’importe qui d’attraper Nvidia ? à “Quelle part du marché du matériel d’IA Nvidia partagera-t-il avec ses concurrents ?”
Les puces Kunlun de Baidu transforment le problème chinois de Nvidia en une ouverture pour Baidu
Si les discussions entre Meta et Google tournent autour de la diversification, la demande de puces de Baidu est une question de nécessité.
Les restrictions américaines à l’exportation interdisent déjà à Nvidia d’expédier ses meilleurs GPU en Chine. Des rapports indiquent que Pékin est allé encore plus loin en disant aux gens de ne pas acheter les processeurs H20 moins puissants de Nvidia, qui y sont disponibles.
Related: Pourquoi le plus gros succès de Netflix pourrait nuire à ses résultats
Les autorités chinoises ont récemment empêché ByteDance d’utiliser les puces Nvidia dans de nouveaux centres de données et ont demandé aux projets financés par l’État d’utiliser uniquement des processeurs d’IA fabriqués en Chine. Cela signifie qu’ils ont dû utiliser une alternative locale.
C’est là que l’unité Kunlunxin de Baidu entre en jeu.
Lors de sa conférence Baidu World en novembre, la société a annoncé :
Puce M100 AI axée sur l’inférence, dont la sortie est prévue début 2026. Puce M300 capable de formation et d’inférence, prévue pour début 2027. Nouveaux systèmes « supernode » Tianchi 256 et Tianchi 512 qui mettent en réseau des centaines de puces Baidu pour imiter les performances des grands clusters Nvidia.
Les analystes commencent à étayer ce plan avec des chiffres réels :
JPMorgan estime que les ventes de puces IA de Baidu seraient multipliées par six, pour atteindre environ 8 milliards de yuans (environ 1,1 milliard de dollars) d’ici 2026. Macquarie estime que le segment Kunlunxin vaut à lui seul environ 28 milliards de dollars. Kunlunxin a déjà reçu des commandes de fournisseurs liés à China Mobile, l’une des plus grandes compagnies de téléphone du pays. Cela montre que l’entreprise commence à faire des affaires.
Les sociétés informatiques chinoises telles qu’Alibaba et Tencent avertissent également les investisseurs que le problème des deux à trois prochaines années sera un manque de puces IA, et non un manque de demande. Cela signifie que tout fournisseur national de puces fiable dispose d’un marché qui lui est presque entièrement propre.
Le calcul n’est pas bon pour Nvidia : la Chine est un marché important pour les accélérateurs d’IA, mais les sanctions américaines et les politiques industrielles chinoises rendent difficile le développement des entreprises locales autour d’elle.
Le gâteau des accélérateurs d’IA explose et Nvidia possède toujours la plus grosse part
Même avec ces problèmes, l’industrie des puces IA dans son ensemble se développe si rapidement que Nvidia peut perdre des parts de marché tout en gagnant de l’argent.
Quelques informations importantes :
Le marché des GPU pour centres de données devrait croître à un taux annuel de 13,7 %, passant de 120 milliards de dollars en 2025 à 228 milliards de dollars en 2030, selon au moins une estimation. Un groupe de recherche prévoit 145,1 milliards de dollars de ventes de puces GPU AI entre 2024 et 2029, soit une croissance annuelle de plus de 30 %. Alphabet, Microsoft, Amazon et Meta ont dépensé près de 200 milliards de dollars sur un centre de données de 290 milliards de dollars. projet de loi sur les infrastructures récemment. Cette somme est susceptible d’augmenter de plus de 40 % en 2025 à mesure qu’ils s’empressent d’étendre les capacités de l’IA.
Dans cette augmentation, Nvidia reste le principal bénéficiaire :
Son chiffre d’affaires s’est élevé à 130,5 milliards de dollars au cours de l’exercice 2025, soit une hausse de 114 % par rapport à l’année précédente. S&P Global Ratings estime désormais que Nvidia pourrait générer 205 milliards de dollars de ventes au cours de l’exercice 2026 et 272 milliards de dollars en 2027. Ses activités principales ont des marges brutes de 70 à 75 %, ce qui est assez élevé pour l’industrie des semi-conducteurs.
En d’autres termes, la « course aux armements » accroît le marché des armements.
En relation: Un avertissement caché de Nvidia pourrait bouleverser tout le développement de l’IA
Le problème pour Nvidia n’est pas que le gâteau diminue. Le problème est que les tranches deviennent plus encombrées. Les TPU occupent une part plus importante dans l’extrémité supérieure des nuages américains, tandis que Baidu (et Huawei) absorbent une grande partie de la croissance en Chine.
Ce que cette guerre des puces sur deux fronts signifie pour les investisseurs
Nvidia reste pour l’instant la meilleure méthode pour capitaliser sur la croissance de l’infrastructure d’IA. Mais les histoires de Meta et Baidu montrent que le secteur est plus difficile à surveiller pour les investisseurs :
Nvidia : reste un leader en matière d’infrastructure d’IA, mais les hyperscalers peuvent déplacer les charges de travail vers des processeurs internes et concurrents. Alphabet : les TPU deviennent un centre de profit ; toute méta-transaction augmentera l’économie du cloud et renforcera la domination de Google sur les logiciels et le matériel d’IA. Méta-plateformes : les investissements massifs dans l’IA sont une question de contrôle et de croissance, et les TPU augmentent la cybersécurité et l’effet de levier en matière de tarification. Baidu : Kunlunxin offre à Baidu une opportunité unique de devenir le premier fabricant chinois de puces d’IA, bénéficiant de vents législatifs favorables mais confronté à des défis d’exécution et de fabrication.
Vue d’ensemble : Nvidia n’a plus de « tueur Nvidia ». Les concurrents régionaux et verticaux accaparent une part importante du secteur du matériel d’IA en croissance rapide. Les investisseurs amateurs de chiffres devraient surveiller la rapidité avec laquelle Nvidia se développe et combien Alphabet et Baidu s’épuiseront discrètement dans les années à venir.
En relation: Jim Cramer lance un appel fort aux actions Nvidia


