Chaque fois que Lisa Su, PDG d’Advanced Micro Devices (AMD), monte sur scène, il ne s’agit pas seulement d’informer les investisseurs ; au lieu de cela, cela réinitialise le rythme.
Lors de la première journée des analystes d’AMD depuis 2022, Su a salué le marché de l’IA comme « plus rapide que tout ce que nous avons vu auparavant », un commentaire qui était beaucoup moins exagéré et plutôt un avertissement pour les concurrents.
Il a présenté l’IA comme un changement unique dans une génération qui réécrit essentiellement la façon dont le monde mesure la puissance de calcul et qui la maîtrise.
De plus, en temps de crise, la PDG d’AMD a augmenté la taille totale de l’opportunité des centres de données d’IA à un montant stupéfiant de 1 000 milliards de dollars d’ici 2030, contre 500 milliards de dollars précédemment annoncés.
Bien que Nvidia mène toujours la conversation, le ton de Su indique clairement qu’AMD cherche à être plus qu’un simple suiveur.
Son message aux investisseurs fidèles d’AMD est simple : le développement de l’IA ne fait que commencer et les entreprises dotées d’une taille, d’une solidité de bilan et d’une capacité de résistance considérables façonneront efficacement la prochaine décennie de mille milliards de dollars.

Lisa Su, PDG d’AMD, s’est exprimée lors de la journée des analystes de l’entreprise et a présenté les nouvelles ambitions en matière d’intelligence artificielle et de centres de données.
Source de l’image : Jerod Harris/Getty Images
AMD avance plus vite, plus vite que prévu
À bien des égards, le PDG d’AMD a essentiellement changé le rythme de l’ensemble de la conversation sur l’IA.
Fondamentalement, ses commentaires ont transformé ce qui aurait pu être une autre mise à jour majeure de la feuille de route du produit en un moment où les analystes ont saisi leurs calculatrices.
Soudainement, la conversation s’est davantage portée sur qui peut réellement suivre le rythme d’un marché de l’IA qui évolue à une vitesse incroyable et sur les implications de ce mouvement.
La vitesse et l’ampleur de l’essor de l’IA
Le message de Su lors de l’événement Analyst Day d’AMD est apparu comme confiant et mesuré, mais urgent.
“Le calcul haute performance est le fondement de tout ce qui est important”, a-t-il déclaré à ses fans, avant d’ajouter des couches d’intelligence artificielle qui “évoluent plus rapidement que tout ce que nous avons vu auparavant”.
Related: Les actions d’IA autrefois en plein essor pèsent désormais sur un mouvement drastique
Il est clair qu’AMD ne cherche plus simplement à chasser le groupe. Au contraire, il s’empresse de définir la prochaine grande phase du renseignement.
Le manuel de l’entreprise se lit effectivement comme une histoire de convergence, où le matériel, les logiciels et les systèmes évoluent en synchronisation pour capturer le moment de l’IA.
AMD Analyst Day 2025 : ce qui s’est démarquéAccélérateurs IA : le muscle de l’opération : les nouvelles puces Instinct robustes d’AMD (MI350 maintenant, MI450 plus tard) sont devenues les moteurs incontournables pour piloter la formation en IA à grande échelle. Il s’agit essentiellement du muscle derrière chaque chatbot, modèle et simulation, conçu pour fonctionner plus vite, plus vite et beaucoup moins cher qu’auparavant. CPU : le cœur et l’équilibre : les puces EPYC « Venice » de nouvelle génération cherchent à faire bien plus avec beaucoup moins d’énergie, aidant ainsi les centres de données IA à gérer l’énergie et l’efficacité informatique. Réseaux : le système nerveux : de nouvelles cartes à puce et interconnexions (noms de code Pollara et Vulcano) chercheront à accélérer la communication entre les machines. autre. Logiciel : le tissu conjonctif du cerveau : ROCm, la plate-forme ouverte d’IA d’AMD, a été multipliée par 10 en termes de téléchargements, devenant ainsi la couche qui rend tout ce silicium utilisable. PC IA et systèmes embarqués : le champ d’application : AMD intègre l’IA dans les appareils du quotidien, des ordinateurs portables aux équipements d’usine.
Le directeur financier Jean Hu a suivi avec des chiffres qui correspondent effectivement à l’ambition, notamment une croissance globale de plus de 35 %, plus de 60 % dans les centres de données et plus de 80 % dans les ventes liées à l’IA.
La rivalité entre IA qui continue de baisser la barre
Dans le monde des puces IA, tout dépend de quelle entreprise redéfinit la course.
Nvidia occupe toujours la première place avec ses systèmes « AI Factory » à l’échelle du rack, notamment les GB200 et GB300, ainsi qu’une prochaine gamme Rubin qui enthousiasme déjà les investisseurs pour ce qui va arriver.
Plus de NVIDIA :
Nvidia donne un grand coup de pouce à l’informatique quantique La prochaine grande nouveauté de Nvidia pourrait être les voitures volantes Bank of America réorganise le cours de l’action Nvidia après une réunion avec le directeur financier
L’avantage secret de Nvidia ne réside pas dans sa rapidité, mais dans la manière dont elle peut vendre des systèmes complets, du silicium aux logiciels en passant par le refroidissement.
Le contrecoup d’AMD, qu’il a montré à travers son rack Helios suralimenté par son puissant MI450, indique ce qui semble être une pression totale pour réduire l’écart.
Au lieu d’expédier des pièces, Su et l’entreprise parlent de systèmes, superposant des processeurs, des réseaux et des logiciels ouverts dans une plate-forme d’IA organisée et cohérente. À la manière classique d’AMD, l’objectif est de tirer parti de la flexibilité et des partenariats pour surpasser l’échelle brute au fil du temps.
En relation: Un analyste chevronné fait un pivot audacieux vers les actions Tesla



