Selon CNBC, Nvidia a accepté de payer environ 20 milliards de dollars en espèces pour Groq, un spécialiste des puces accélératrices d’IA utilisées pour alimenter l’inférence, l’étape à laquelle les modèles d’IA formés répondent réellement aux questions, génèrent du texte ou alimentent des applications en temps réel. Alex Davis, PDG de la société d’investissement Disruptive, qui a dirigé le dernier cycle de financement de Groq, a déclaré à CNBC que l’accord avait été conclu rapidement, des mois après que Groq ait levé 750 millions de dollars pour une valorisation d’environ 6,9 milliards de dollars.
Disruptive a investi plus de 500 millions de dollars dans Groq depuis sa création en 2016, et Groq devrait désormais informer les investisseurs de l’acquisition de Nvidia dès que les détails seront finalisés. L’acquisition inclurait la conception de puces de base de Groq et les actifs associés, tout en excluant l’activité Groq Cloud en phase de démarrage de la société, qui offrait aux développeurs un accès à son matériel basé sur des API.
Du côté de Nvidia, la capacité financière est claire. Le géant des puces a terminé le mois d’octobre avec environ 60,6 milliards de dollars de liquidités et d’investissements à court terme, contre environ 13,3 milliards de dollars début 2023, en raison d’une explosion de la demande pour ses GPU compatibles avec l’IA. Une structure entièrement en espèces signifie aucune dilution pour les actionnaires existants, mais elle exprime également la conviction de Nvidia que la sécurisation de la technologie de Groq sera payante à long terme, même avec une prime élevée.
Pourquoi il s’agit de la plus grosse acquisition de Nvidia à ce jour
Cet accord avec Groq devient instantanément la plus grande acquisition de Nvidia en valeur totale, dépassant son achat de 6,9 milliards de dollars de la société de réseau israélienne Mellanox en 2019. Mellanox a donné à Nvidia une technologie de réseau et d’interconnexion à haut débit qui est devenue cruciale pour la construction de grands clusters d’IA, transformant efficacement Nvidia d’un fournisseur de GPU à un fournisseur de plate-forme de centre de données full-stack.
Obturateur
Nvidia a déjà essayé de grandir encore plus. En 2020, il a annoncé son intention d’acheter le concepteur de puces britannique Arm à SoftBank pour une combinaison de liquidités et d’actions d’une valeur pouvant atteindre 40 milliards de dollars, une décision qui aurait remodelé le paysage mondial des semi-conducteurs. Cet accord a échoué sous la pression réglementaire en 2022, après que les autorités du Royaume-Uni, de l’UE et des États-Unis ont exprimé leur inquiétude quant au fait que Nvidia pourrait acquérir trop d’influence sur l’octroi de licences pour les conceptions de processeurs d’Arm.
Plus de NVIDIA :
Le problème des puces chinoises de Nvidia n’est pas ce que pensent la plupart des investisseursJim Cramer rend un verdict fort en cinq mots sur les actions de NvidiaVoici comment Nvidia empêche ses clients de changerBank of America fait un appel surprise sur les actions soutenues par Nvidia
L’acquisition de Groq est inférieure en termes de dollars à la tentative ratée d’Arm, mais elle reste énorme pour une cible technologique unique. En dépensant près de trois fois la dernière valorisation de Groq, Nvidia signale que le matériel d’inférence n’est pas seulement une activité secondaire, mais un pilier central sur lequel il souhaite que les revenus de l’IA augmentent ensuite.
La course à l’inférence de l’IA s’intensifie
Le marché des puces IA comprend deux grands groupes : la formation et l’inférence. La formation est le lieu où sont construits des modèles massifs, utilisant souvent des milliers de GPU Nvidia dans des centres de données gérés par des sociétés comme Microsoft, Amazon et Google. L’inférence est l’endroit où ces modèles sont réellement utilisés pour la recherche, les chatbots, les copilotes, les vidéos d’IA et toute application nécessitant des réponses rapides et reproductibles à grande échelle.
Groq se positionne comme un spécialiste exclusif de l’inférence. La couverture médiatique axée sur les analystes comme AInvest affirme que le matériel de Groq peut offrir des performances de latence extrêmement faibles, certains marketing indiquant des vitesses jusqu’à deux fois plus rapides que les systèmes concurrents sur certaines charges de travail tout en maintenant la précision. Cette promesse de performances, associée à un modèle de programmation simplifié, a fait de Groq une option attrayante pour les développeurs qui souhaitaient quelque chose de plus rapide et de plus prévisible que les GPU à usage général pour les charges de travail de production.
Related: Le rival controversé de Nvidia pourrait enfin devenir public
Contrôle réglementaire et risques antitrust
Parce que Nvidia est déjà au centre du monde du matériel d’IA, tout accord majeur qu’elle conclura fera sourciller à Washington, Bruxelles, Londres et Pékin. Reuters note que les régulateurs ont surveillé de près le rôle croissant de Nvidia dans l’informatique IA, et que l’accord avec Groq devrait faire l’objet d’un examen antitrust dans plusieurs juridictions.
Les questions clés porteront probablement sur la question de savoir si l’acquisition de Groq réduit considérablement la concurrence dans le matériel d’inférence d’IA et si Nvidia pourrait utiliser le contrôle des puces Groq pour désavantager ses concurrents ou exclure les alternatives pour les fournisseurs et les entreprises de cloud. Nvidia a fait valoir lors de transactions précédentes que l’intégration des technologies acquises dans sa pile profitait aux clients en améliorant les performances et l’innovation, mais les régulateurs sont devenus plus sensibles à la consolidation verticale des infrastructures numériques critiques.
Pour les investisseurs, le risque n’est pas seulement que les régulateurs bloquent la transaction (comme cela s’est produit avec Arm), mais aussi qu’ils imposent des solutions. Celles-ci pourraient inclure des exigences concernant les licences, l’interopérabilité ou l’accès à la technologie de Groq pour des tiers à des conditions équitables, ce qui pourrait réduire certains des avantages stratégiques pour lesquels Nvidia paie.
Ce que cela signifie pour les investisseurs et les épargnants quotidiens
Si vous possédez Nvidia, cette acquisition vous indique des informations importantes sur la direction que l’entreprise envisage pour l’avenir.
Premièrement, Nvidia s’attend à ce que la demande en IA passe d’une phase de développement, où les entreprises se précipitent pour former des modèles, à une phase de déploiement où les charges de travail d’inférence explosent dans tous les secteurs et tous les appareils. Posséder une technologie d’inférence spécialisée devient un moyen de capter cette deuxième vague de dépenses et d’empêcher les clients de se tourner vers des concurrents proposant du matériel moins cher ou plus efficace pour une utilisation en production. Deuxièmement, Nvidia penche vers une stratégie écosystémique plutôt que vers une stratégie axée uniquement sur les produits. En combinant des GPU, des réseaux (de Mellanox), des logiciels (CUDA et bibliothèques associées) et des accélérateurs spécialisés (puces de Groq), Nvidia peut proposer des solutions de bout en bout plus difficiles à remplacer par des concurrents comme AMD, Intel ou des puces personnalisées de fournisseurs de cloud. Pour l’investisseur moyen, cela ressemble à un fossé, mais cela concentre également le risque sur une seule entreprise. Troisièmement, la consolidation au niveau de la puce pourrait éventuellement apparaître dans votre portefeuille. Si Nvidia peut utiliser la technologie de Groq pour rendre l’inférence moins chère et plus efficace, cela pourrait réduire le coût pour les startups et les entreprises d’offrir des services d’IA, ce qui pourrait à son tour signifier plus de concurrence et de meilleurs outils pour les consommateurs et les petits investisseurs. Mais si le nombre réduit d’options de puces autonomes entraîne des prix plus élevés ou une dépendance plus stricte envers les fournisseurs, les fournisseurs de logiciels et de cloud pourraient répercuter des coûts d’infrastructure plus élevés et certaines innovations pourraient être évincées.
Pour les épargnants à long terme, la conclusion pratique est que l’infrastructure de l’IA est en train de devenir un élément central de l’histoire du marché, et non plus seulement une intrigue technologique secondaire. La volonté de Nvidia de dépenser 20 milliards de dollars en espèces pour Groq renforce l’idée selon laquelle contrôler l’informatique, c’est comme posséder l’autoroute à péage de l’autoroute AI.
En relation: Le moment de 4 000 milliards de dollars de Nvidia s’est accompagné d’un signe d’avertissement discret


