
Le problème, m’a expliqué De Rosen lors d’un appel téléphonique la semaine dernière, est que même si les différents modèles d’IA ont tendance à être cohérents dans la façon dont ils caractérisent les offres de produits d’une marque (en signalant généralement correctement la nature d’un produit, ses caractéristiques et comment ces caractéristiques se comparent aux produits concurrents, ainsi qu’en fournissant des citations aux sources de ces informations), ils sont incohérents et sujets aux erreurs lorsqu’on leur pose des questions liées à la stabilité financière, à la gouvernance et aux certifications techniques d’une entreprise. Toutefois, ces informations peuvent jouer un rôle important dans les décisions majeures en matière d’approvisionnement.
Les modèles d’IA sont moins fiables en matière financière et de gouvernance
Dans un exemple, AIVO Standard a évalué comment les modèles d’IA de pointe répondaient aux questions sur Ramp, la société de logiciels de gestion des dépenses d’entreprise à croissance rapide. AIVO Standard a constaté que les modèles ne pouvaient pas répondre de manière fiable aux questions sur les certifications de cybersécurité et les normes de gouvernance de Ramp. Dans certains cas, a déclaré de Rosen, cela inciterait probablement subtilement les entreprises à prendre des décisions d’acquisition impliquant des entreprises plus grandes, cotées en bourse et établies, même dans les cas où une nouvelle entreprise privée répondait également aux mêmes normes, simplement parce que les modèles d’IA ne pouvaient pas répondre avec précision aux questions sur la gouvernance et l’adéquation financière de la jeune entreprise privée ou citer les sources des informations qu’elles ont fournies.
Dans un autre exemple, la société a analysé ce que disaient les modèles d’IA sur les facteurs de risque des médicaments amaigrissants concurrents. Il a constaté que les modèles d’IA ne se contentaient pas d’énumérer les facteurs de risque, mais faisaient des recommandations et des jugements sur le médicament qui était probablement « l’option la plus sûre » pour le patient. “Les résultats étaient en grande partie objectifs et mesurés, avec des clauses de non-responsabilité, mais ils ont quand même déterminé l’éligibilité, la perception du risque et la préférence”, a déclaré de Rosen.
AIVO Standard a constaté que ces problèmes se produisaient dans tous les principaux modèles d’IA et dans une variété d’invites différentes, et qu’ils persistaient même lorsqu’il était demandé aux modèles de vérifier leurs réponses. En fait, dans certains cas, les modèles auraient tendance à redoubler d’efforts face à des informations inexactes, en insistant sur leur exactitude.
GEO est encore plus un art qu’une science
Il y a plusieurs implications. La première, pour toutes les entreprises vendant des services GEO, est que GEO peut ne pas être performant sur différents aspects des informations sur la marque. Les entreprises ne devraient pas nécessairement faire confiance à une entreprise de technologie marketing qui prétend pouvoir leur montrer comment leur marque apparaît dans les réponses des chatbots, et encore moins croire que l’entreprise de technologie marketing dispose d’une formule magique pour façonner de manière fiable ces réponses d’IA. Les résultats rapides peuvent varier considérablement, même de minute en minute, selon le type d’informations sur la marque évaluée. Et il n’existe toujours pas beaucoup de preuves sur la manière exacte d’orienter les réponses des chatbots vers des informations non liées au produit.
Mais le problème bien plus important est qu’il y a un point dans de nombreux flux de travail d’agents (même ceux avec la participation d’un humain) où les informations fournies par l’IA deviennent la base de la prise de décision. Et, comme le dit de Rosen, la plupart des entreprises d’aujourd’hui ne contrôlent pas vraiment les frontières entre l’information, le jugement et la prise de décision. Ils n’ont aucun moyen de savoir exactement quel message a été utilisé, ce que le modèle a renvoyé en réponse et comment cela a exactement influencé la recommandation ou la décision finale. Dans les secteurs réglementés comme la finance ou la santé, si quelque chose ne va pas, les régulateurs demanderont exactement ces détails. Et à moins que les entreprises réglementées ne mettent en œuvre des systèmes pour capturer toutes ces données, elles se dirigent vers des ennuis.
FORTUNE EN IA
Anthropic lance Claude Cowork, un agent de gestion de fichiers IA qui pourrait menacer des dizaines de startups (par Beatrice Nolan, UK). Enquête sur
Anthropic présente Claude pour les soins de santé, étend les fonctionnalités des sciences de la vie et s’associe à HealthEx pour permettre aux utilisateurs de connecter les dossiers médicaux, par Jeremy Kahn
L’IA DANS L’ACTUALITÉ
Apple choisit l’IA Google mise à jour pour Siri. Apple a signé un partenariat pluriannuel avec Google pour intégrer des fonctionnalités clés d’intelligence artificielle dans ses produits, y compris une mise à jour tant attendue de Siri, ont annoncé les sociétés lundi. L’accord souligne le résurgence de Google dans le domaine de l’IA et a contribué à faire passer la valeur marchande de la société mère de Google, Alphabet, au-dessus du seuil de 4 000 milliards de dollars. Apple a déclaré que l’accord ne modifiait pas son partenariat existant avec OpenAI, dans le cadre duquel Siri transmet actuellement certaines requêtes à ChatGPT, bien qu’il ne soit pas clair comment l’alliance avec Google façonnera les futures intégrations d’IA de Siri. Les conditions financières de l’accord n’ont pas non plus été divulguées, bien que Bloomberg ait précédemment rapporté qu’Apple envisageait de payer à Google jusqu’à 1 milliard de dollars par an pour accéder à ses modèles d’IA pour Siri.
OEIL SUR LA RECHERCHE SUR L’IA
Microsoft, Nvidia et la startup britannique Basecamp Research font une percée grâce à l’IA dans l’édition génétique. Une équipe de recherche internationale comprenant des scientifiques de Nvidia et Microsoft a utilisé l’IA pour extraire des données évolutives de plus d’un million d’espèces afin de concevoir de nouveaux outils potentiels d’édition génétique et des thérapies médicamenteuses. L’équipe a développé une suite de modèles d’IA, appelés Eden, qui ont été formés sur un vaste ensemble de données biologiques non publiées collectées par Basecamp. La division de capital-risque de Nvidia est un investisseur dans Basecamp.
VOUS AVEZ UN CALENDRIER
19-23 janvier : Forum économique mondial, Davos, Suisse.
20-27 janvier : Conférence AAAI sur l’intelligence artificielle, Singapour.
10 et 11 février : AI Action Summit, New Delhi, Inde.
2-5 mars : Mobile World Congress, Barcelone, Espagne.
16-19 mars : Nvidia GTC, San Jose, Californie.
ALIMENTATION POUR LE CERVEAU
Et si les gens préfèrent la fiction écrite par l’IA ou ne peuvent tout simplement pas faire la différence ? C’est la question que pose l’écrivain new-yorkais Vaudhini Vara dans un essai provocateur publié il y a quelques semaines sous le titre « Weekend Essay » sur le site Internet du magazine. Alors que les modèles d’IA standard continuent de lutter pour produire des histoires aussi convaincantes que celles des diplômés des meilleurs programmes de maîtrise en beaux-arts et des romanciers chevronnés, il s’avère que lorsque ces modèles sont adaptés aux œuvres d’un auteur existant, ils peuvent produire une prose qui est souvent impossible à distinguer de ce que l’auteur original pourrait créer. Curieusement, dans un test mené par le chercheur Tuhin Chakrabarty, qui a mené certaines des meilleures expériences à ce jour sur les capacités d’écriture créative des modèles d’IA, et que Vara répète d’une manière légèrement différente, même les lecteurs ayant des sensibilités littéraires très sensibles (comme les étudiants en MFA) préfèrent les versions écrites par l’IA à la prose écrite par des humains. Si tel est le cas, quel espoir y aura-t-il pour les auteurs de romans d’amour ou de fiction de genre ? Il y a quelques mois, j’ai eu une conversation avec un ami qui est un romancier de renom. Il était pessimiste quant à la valeur que les générations futures accorderaient à la littérature écrite par des humains. J’ai essayé de faire valoir que les lecteurs se soucieront toujours de l’idée qu’ils sont en communication avec un auteur humain, qu’il y a un esprit avec des expériences vécues derrière les mots. Je n’étais pas convaincu. Et je crains de plus en plus que son pessimisme soit fondé. Vara conclut finalement que la seule façon de préserver l’idée de la littérature en tant que transmission d’expériences vécues à travers la page est pour nous de l’exiger collectivement (et peut-être même d’interdire l’intégration de modèles d’IA dans les œuvres d’écrivains existants). Je ne suis pas sûr que ce soit réaliste. Mais c’est peut-être la seule option qui nous reste.
FORTUNE AIQ : L’ANNÉE DE L’IA ET CE QUI ARRIVE
Les entreprises ont fait de grands pas vers l’IA en 2025, depuis l’embauche de directeurs IA jusqu’à l’expérimentation d’agents IA. Les leçons apprises, bonnes et mauvaises, combinées aux dernières innovations technologiques feront de 2026 une autre année décisive. Explorez l’intégralité de Fortune AIQ et lisez le dernier manuel de jeu ci-dessous :
–Les 3 tendances qui ont dominé les lancements d’IA des entreprises en 2025.
–2025 était l’année de l’agent AI. Comment avons-nous fait ?
–Les outils de codage de l’IA ont explosé en 2025. Les premiers exploits de sécurité montrent ce qui pourrait mal tourner.
–La grande résolution du Nouvel An de l’IA pour les entreprises en 2026 : le ROI.
–Les entreprises sont confrontées à un ensemble confus de politiques et de réglementations en matière d’IA. Y a-t-il de la clarté à l’horizon ?



