A Davos, l’enthousiasme pour l’IA cède la place au retour sur investissement (ROI) | Fortune

Bonjour et bienvenue sur Eye on AI. Dans cette édition… une dépêche de Davos… OpenAI ‘sur la bonne voie’ pour le lancement de l’appareil en 2026… Le PDG d’Anthropic parle des ventes de puces en Chine… et le moment ChatGPT de Claude Code Anthropic ?

Bonjour. Je suis à Davos, en Suisse, cette semaine pour le Forum économique mondial. La visite prévue demain du président américain Donald Trump domine les discussions ici. Mais quand les gens ne parlent pas de Trump et de son imposition de droits de douane sur les alliés européens qui s’opposent à sa tentative d’arracher le contrôle du Groenland au Danemark, ils parlent beaucoup de l’IA.

La promenade de cette station de ski devient un salon technologique pendant le WEF, avec les logos d’éminents éditeurs de logiciels et de sociétés de conseil affichés sur les vitrines et les panneaux d’affichage faisant la promotion de divers produits d’IA. Mais alors que l’année dernière, Davos a été dominée par le battage médiatique autour des agents d’IA et par l’inquiétude excessive selon laquelle les débuts du modèle R1 de DeepSeek, qui ont eu lieu lors du WEF 2025, pourraient signifier que les projets à forte intensité de capital des entreprises américaines d’IA n’ont servi à rien, les discussions sur l’IA de cette année semblent plus sobres et plus fondées.

Les chefs d’entreprise avec lesquels j’ai parlé ici à Davos se concentrent plus que jamais sur la manière de générer des retours commerciaux sur leurs dépenses en IA. L’ère des pilotes et de l’expérimentation semble toucher à sa fin. Il en va de même pour l’ère de l’imagination de ce que l’IA peut faire. De nombreux PDG réalisent désormais que la mise en œuvre de l’IA à grande échelle n’est ni facile ni bon marché. L’accent est désormais davantage mis sur les conseils pratiques sur l’utilisation de l’IA pour générer un impact dans l’ensemble de l’entreprise. (Mais il y a aussi une teinte d’idéalisme ici, comme vous le verrez.) Voici un échantillon de certaines des choses que j’ai entendues jusqu’à présent dans les conversations :

Les PDG prennent le contrôle du déploiement de l’IA

Il existe un consensus sur le fait que les approches ascendantes (donnant à tous les employés l’accès à ChatGPT ou à Microsoft Copilot, par exemple) populaires dans de nombreuses entreprises il y a deux ans, au début du boom de l’IA générative, appartiennent au passé. À l’époque, les PDG pensaient que les travailleurs de première ligne, ceux qui sont les plus proches des processus métier, sauraient comment mettre en œuvre au mieux l’IA pour les rendre plus efficaces. Cela s’est avéré incorrect ou, peut-être plus précisément, les avantages de cette approche étaient généralement difficiles à quantifier et se traduisaient rarement par des changements importants dans les résultats.

Au lieu de cela, les initiatives descendantes dirigées par les PDG visant à transformer les processus métier de base sont désormais considérées comme essentielles pour obtenir un retour sur investissement (ROI) grâce à l’IA. Jim Hagemann Snabe, président de Siemens et ancien co-PDG de SAP, a déclaré à un groupe de collègues dirigeants lors d’un petit-déjeuner que j’ai animé ici à Davos aujourd’hui que les PDG doivent être des « dictateurs » pour identifier où leurs entreprises déploieraient l’IA et piloter ces initiatives. De même, Christina Kosmowski, PDG de la société d’informatique et d’analyse de données d’entreprise LogicMonitor, et Bastian Nominacher, co-fondateur et co-PDG de la société de logiciels d’exploration de processus Celonis, m’ont dit que le parrainage du conseil d’administration et du PDG était un élément essentiel au succès de l’IA d’entreprise.

Nominacher a appris d’autres leçons intéressantes, notamment comment, dans le cadre d’une recherche commandée par Celonis, la création d’un centre d’excellence pour déterminer comment optimiser les processus de travail avec l’IA a abouti à un rendement 8 fois plus élevé que celui des entreprises qui n’ont pas réussi à créer un tel centre. Il a également déclaré que disposer des données au bon endroit était essentiel pour réussir l’optimisation des processus.

La course pour devenir la couche d’orchestration pour les agents IA d’entreprise FORTUNE ON AI

La vague de défections de Thinking Machines, la startup de 12 milliards de dollars de l’ancienne CTO d’OpenAI Mira Murati, montre une lutte impitoyable pour les talents en IA, par Jeremy Kahn et Sharon Goldman

ChatGPT teste les publicités alors qu’une nouvelle ère de l’IA commence, par Sharon Goldman

Un cinéaste a simulé Sam Altman pour son film sur l’IA. Puis les choses sont devenues personnelles, par Beatrice Nolan

Le président mondial de PwC affirme que la plupart des dirigeants ont oublié « les bases », car 56 % d’entre eux ne tirent toujours « rien » de l’adoption de l’IA (par Diane Brady et Nick Lichtenberg)

L’IA DANS L’ACTUALITÉ

OpenAI « sur la bonne voie » pour le lancement de l’appareil en 2026 OpenAI prévoit de dévoiler son premier appareil grand public au second semestre 2026, selon le directeur des affaires mondiales Chris Lehane, qui s’est exprimé lundi à l’Axios House Davos. Il s’agit du calendrier le plus clair à ce jour pour le projet secret que le PDG Sam Altman taquine depuis qu’il a fait équipe avec l’ancien chef du design d’Apple, Jony Ive, l’année dernière. Les détails restent étroitement gardés, mais les rapports suggèrent qu’OpenAI expérimente de petits appareils sans écran (éventuellement portables) qui s’appuient sur une interaction alimentée par l’IA plutôt que sur des applications ou des écrans traditionnels. Bien que Lehane n’ait pas confirmé de date de sortie commerciale exacte, il a déclaré que la fenêtre “la plus probable” serait plus tard cette année, en fonction de la façon dont “les choses progressent”.

Vendre des puces d’IA à la Chine, c’est comme « vendre des armes nucléaires à la Corée du Nord », déclare le PDG d’Anthropic. Dario Amodei a critiqué la décision de l’administration Trump d’assouplir les restrictions sur les exportations de puces d’IA avancées vers la Chine, la qualifiant d’« énorme erreur » ayant des « implications incroyables sur la sécurité nationale » dans une interview avec Bloomberg au Forum économique mondial. Lors d’une table ronde plus tard dans la journée, Amodei a réitéré sa position, affirmant que restreindre la vente de puces avancées à la Chine était la meilleure chose que les États-Unis pouvaient faire pour assurer leur leadership dans la course mondiale à l’IA. Il avait précédemment mis en garde contre des scénarios dystopiques si les régimes autoritaires avaient accès à des capacités avancées d’intelligence artificielle.

Le procès de 134 milliards de dollars de Musk touche une corde sensible avec OpenAI. Elon Musk réclame entre 79 et 134 milliards de dollars de dommages et intérêts à OpenAI et Microsoft, selon un rapport de Bloomberg. Dans un nouveau dossier judiciaire, les avocats de Musk affirment qu’il a droit à une partie de la valorisation estimée d’OpenAI à 500 milliards de dollars après avoir été « escroqué » sur les 38 millions de dollars qu’il a donnés en tant que co-fondateur. OpenAI et Microsoft ont rejeté ces allégations comme étant infondées et « peu sérieuses », accusant Musk de harcèlement avant un procès devant jury prévu en avril. Pendant ce temps, une partie de la découverte publiée par Musk semble avoir touché une corde sensible auprès de la direction du laboratoire. Vendredi, OpenAI a publié un article de blog détaillé accusant Musk d’avoir déformé des documents internes et d’avoir omis un contexte clé montrant qu’il soutenait une structure à but lucratif dès 2017.

Anthropic gagne l’un des principaux chercheurs en sécurité d’OpenAI. Anthropic a embauché Andrea Vallone, chercheuse principale en sécurité qui a dirigé les travaux d’OpenAI sur la manière dont les chatbots devraient réagir aux signes de dépendance émotionnelle excessive et aux problèmes de santé mentale. Vallone a passé trois ans chez OpenAI à constituer son équipe de recherche sur les « politiques modèles » et à contribuer à façonner la mise en œuvre et la formation de GPT-4, des modèles de raisonnement et de GPT-5. Vallone rejoindra l’équipe d’Anthropic sous la direction de Jan Leike, l’ancien responsable de la sécurité d’OpenAI qui a quitté l’entreprise en 2024, invoquant des inquiétudes selon lesquelles la sécurité était éclipsée par les pressions sur les produits. Cette décision intervient dans un contexte de surveillance accrue de la manière dont les systèmes d’IA traitent les utilisateurs vulnérables, à la suite de poursuites judiciaires et de l’attention du Congrès liée aux interactions des chatbots et aux problèmes de santé mentale. Plus de The Verge ici.

OEIL SUR LA RECHERCHE SUR L’IA

Les chercheurs affirment que ChatGPT a un « regard de silicium » qui amplifie les inégalités mondiales. Une nouvelle étude de l’Oxford Internet Institute et de l’Université du Kentucky a analysé plus de 20 millions de requêtes ChatGPT et a révélé que l’IA favorise systématiquement les régions occidentales les plus riches, les jugeant « plus intelligentes » et « plus innovantes » que les pays les plus pauvres du Sud. Les chercheurs ont inventé le terme « regard de silicium » pour décrire la façon dont les systèmes d’IA perçoivent le monde à travers le prisme de données d’entraînement biaisées, reflétant les déséquilibres de pouvoir historiques plutôt que de fournir des réponses objectives. Ils soutiennent que ces biais ne sont pas des erreurs qui doivent être corrigées, mais plutôt des caractéristiques structurelles des systèmes d’intelligence artificielle qui apprennent à partir de données façonnées par des siècles de production inégale d’informations, privilégiant les endroits avec une large couverture en anglais et une forte visibilité numérique. L’équipe a créé un site Web, inequalities.ai, où les gens peuvent découvrir comment ChatGPT classe leur propre quartier, ville ou pays en fonction de différents facteurs de style de vie.

VOUS AVEZ UN CALENDRIER

19-23 janvier : Forum économique mondial, Davos, Suisse.

20-27 janvier : Conférence AAAI sur l’intelligence artificielle, Singapour.

10 et 11 février : AI Action Summit, New Delhi, Inde.

2-5 mars : Mobile World Congress, Barcelone, Espagne.

16-19 mars : Nvidia GTC, San Jose, Californie.

ALIMENTATION POUR LE CERVEAU

La capacité de Claude Code et de Cowork à accéder, manipuler et analyser de manière autonome les fichiers sur l’ordinateur d’un utilisateur a donné à de nombreuses personnes leur première expérience d’un agent IA capable de réellement prendre des mesures en leur nom, plutôt que de simplement fournir des conseils. En conséquence, Anthropic a également constaté une augmentation du trafic. L’audience Web totale de Claude a plus que doublé depuis décembre 2024, et ses visiteurs uniques quotidiens sur ordinateur ont augmenté de 12 % à l’échelle mondiale jusqu’à présent cette année par rapport au mois dernier, selon les données des sociétés d’information commerciale Similarweb et Sensor Tower publiées par le Wall Street Journal. Mais si certains ont salué ces produits comme la première étape vers un véritable assistant personnel IA, le lancement a également soulevé des inquiétudes quant au déplacement d’emplois et semble mettre la pression sur quelques dizaines de startups qui ont créé des outils d’automatisation et de gestion de fichiers similaires.

FORTUNE AIQ : L’ANNÉE DE L’IA ET CE QUI ARRIVE

Les entreprises ont fait de grands pas vers l’IA en 2025, depuis l’embauche de directeurs IA jusqu’à l’expérimentation d’agents IA. Les leçons apprises, bonnes et mauvaises, combinées aux dernières innovations technologiques feront de 2026 une autre année décisive. Explorez l’intégralité de Fortune AIQ et lisez le dernier manuel de jeu ci-dessous :

–Les 3 tendances qui ont dominé les lancements d’IA des entreprises en 2025.

–2025 était l’année de l’agent AI. Comment avons-nous fait ?

–Les outils de codage de l’IA ont explosé en 2025. Les premiers exploits de sécurité montrent ce qui pourrait mal tourner.

–La grande résolution du Nouvel An de l’IA pour les entreprises en 2026 : le ROI.

–Les entreprises sont confrontées à un ensemble confus de politiques et de réglementations en matière d’IA. Y a-t-il de la clarté à l’horizon ?

spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici