Bloomberg, l’OG des sociétés de données financières, dispose d’un nouvel agent d’IA puissant. La façon dont il l’a construit est riche d’enseignements pour les autres | Fortune

Bloomberg, l’OG des sociétés de données financières, dispose d’un nouvel agent d’IA puissant. La façon dont il l’a construit est riche d’enseignements pour les autres | Fortune

Bonjour et bienvenue sur Eye on AI. Dans ce numéro… La Chine bloque l’achat de Manus par Meta… OpenAI manque ses objectifs de revenus et de croissance… Anthropic montre que les modèles d’IA peuvent aider à faire progresser la recherche sur la sécurité de l’IA… La décision du sénateur Bernie Sanders d’inviter des experts chinois en intelligence artificielle à un panel à Capitol Hill suscite la colère des faucons chinois.

Dans leur bataille pour les ventes aux entreprises, OpenAI et Anthropic ont ciblé les sociétés de services financiers. Ce n’est pas surprenant. Comme le dit cette vieille blague sur la raison pour laquelle les criminels braquent les banques : c’est là que se trouve l’argent. OpenAI disposerait d’un bataillon d’anciens analystes en investissement aidant à créer un produit d’analyse financière d’IA agent qui n’a pas encore été publié. Anthropic a déployé des compétences en modélisation financière pour ses produits Claude Code, Cowork et Claude for Finance. La startup Samaya AI crée également des outils d’intelligence artificielle pour le secteur financier. Et il existe également de nombreux nouveaux outils de conseil financier qui utilisent l’IA, comme mon collègue Jeff John Roberts l’a expliqué dans ce récent article informatif.

L’OG des données financières spécialisées et des outils d’analyse, bien sûr, est Bloomberg. L’accès au « terminal » de l’entreprise, comme elle appelle son produit de base (bien que ses données ne soient plus transmises via une machine dédiée), est toujours considéré comme l’outil de rigueur de tout trader, banquier d’investissement et fonds spéculatif.

Même avant de quitter l’entreprise pour rejoindre Fortune en 2019, Bloomberg avait commencé à utiliser l’apprentissage automatique et de grands modèles de langage pour rendre l’accès à ces fonctionnalités beaucoup plus intuitif, ainsi que pour piloter de nouveaux types d’analyse de données. Et ces efforts n’ont fait que s’accélérer, surtout depuis les débuts des chatbots d’IA générative en 2022 et les récents progrès de l’IA des agents.

J’ai régulièrement écrit sur les progrès de Bloomberg en matière d’IA ici chez Fortune. Mais j’ai quand même été surpris et impressionné lorsque j’ai assisté à un récent « AI in Finance Summit » dans les bureaux londoniens de la société, où elle présentait sa nouvelle fonctionnalité « AskB », que la société qualifie de plus grande refonte du terminal dans l’histoire de Bloomberg. AskB permet aux utilisateurs d’utiliser le langage naturel pour naviguer dans les caractéristiques et fonctions du terminal, mais il fait bien plus que cela. Le système agit comme un agent, créant des filtres d’investissement et produisant à la volée des rapports de recherche complets, comprenant des modèles financiers sophistiqués et des scénarios haussiers et baissiers pour des actions particulières.

AskB, qui utilise une variété de modèles d’IA sous le capot, dont certains créés par Bloomberg lui-même et d’autres par des sociétés de modélisation d’IA de pointe comme Anthropic, montre que Bloomberg prend au sérieux la menace potentielle des startups d’IA natives. J’ai rencontré Shawn Edwards, directeur de la technologie de Bloomberg, pour lui demander davantage sur la manière dont Bloomberg a créé AskB. Une grande partie de ce qu’il a dit contient des leçons pour les entreprises de tous les secteurs qui tentent de faire en sorte que l’IA des agents génère une réelle valeur commerciale.

Les données sont le différenciateur

Cela ne veut pas dire que l’IA ne peut pas aider. Edwards m’a dit que les agents d’IA ont considérablement accéléré la façon dont Bloomberg crée des ensembles de données. L’ingestion de données qui prenait auparavant quatre mois et demi prend désormais deux jours, dit-il. Cela a libéré de grandes équipes auparavant dédiées à la saisie et au nettoyage des données, dont beaucoup ont été réaffectées à la création d’évaluations internes.

Créer des évaluations solides

Ce qui nous amène à la deuxième grande leçon : créer de bonnes évaluations internes est essentiel pour obtenir un retour sur investissement des agents IA. « Les évaluations, je ne saurais trop le souligner, sont le facteur décisif dans la construction d’un système utile et fiable », déclare Edwards, qualifiant l’accent mis sur la création de ces évaluations de l’un des plus grands « changements culturels » que Bloomberg ait connu au cours des deux dernières années.

Préparer des évaluations n’est pas facile et ce n’est pas bon marché non plus. Cela nécessite une collaboration étroite avec des spécialistes du domaine (en l’occurrence des experts en covenants obligataires, des analystes actions, des experts en structures de marché, ou encore des journalistes de Bloomberg) et des équipes d’ingénierie et de produits. Bloomberg était prêt à retirer ces experts de leur travail quotidien pour rédiger des références pour les sous-agents et aider à évaluer des flux de travail complets. Utiliser les modèles d’IA eux-mêmes comme évaluateurs peut fonctionner dans des cas simples, explique Edwards. Mais pour tout le reste, il faut des conseillers humains. En élaborant ces évaluations, dit-il, Bloomberg codifie les « connaissances tacites » de ses experts sur le fonctionnement de ses agents d’IA.

L’utilisation de plusieurs modèles peut aider à contenir les coûts

Ensuite, la discipline en matière de coûts est essentielle. Et cela signifie que les flux de travail doivent être multimodèles. AskB utilise une combinaison de modèles commerciaux frontières et de modèles ouverts, ainsi que ses propres modèles internes, acheminant les requêtes vers le modèle le moins cher capable de gérer une tâche donnée avec le type de fiabilité et de performances exigées par le flux de travail, explique Edwards.

Enfin, la prochaine frontière est proactive. Lorsque j’ai demandé ce qui allait arriver, la réponse d’Edwards a été des flux de travail d’agent à agent et une surveillance permanente des données. Il souhaite que Bloomberg soit « les yeux et les oreilles » de ses clients financiers, observant le monde en fonction des positions, du mandat et de la stratégie de chaque client, et mettant en lumière non seulement les évidences mais aussi les effets de deuxième et troisième ordre. Une inondation détruit une usine qui fabrique des pièces pour un fournisseur d’une entreprise dont les stocks existent depuis longtemps ; AskB, dans la vision d’Edwards, vous signalerait le problème avant que vous pensiez à le demander.

Réaliser cette vision sera difficile. Mais de nombreuses entreprises souhaitent disposer de ce type d’agent proactif et toujours disponible. Bloomberg montre quelques étapes clés en cours de route.

FORTUNE EN IA

Anthropic affirme que des erreurs d’ingénierie sont à l’origine du déclin de Claude Code pendant des semaines après des semaines de réactions négatives des utilisateurs, par Beatrice Nolan

L’effort européen de Cohere met en évidence la montée en puissance des puissances moyennes en matière d’IA au-delà des États-Unis et de la Chine, par Sharon Goldman

DeepSeek présente son nouveau modèle à des prix défiant toute concurrence et avec un « support complet » des puces Huawei, par Nicholas Gordon

Exclusif : Dex, une start-up de recrutement basée sur l’IA, lève 5,3 millions de dollars, par Jeremy Kahn

J’ai utilisé la nouvelle fonctionnalité Dispatch de Claude pendant un mois. Voici tout ce que je pouvais faire, par Catherina Gioino

Commentaire : Mark Zuckerberg construit un clone d’IA de lui-même. La plupart des gens ont juste besoin d’aide avec leur boîte de réception, par Mukund Jha

L’IA DANS L’ACTUALITÉ

Le régulateur chinois de la concurrence bloque le rachat par Meta de la société d’intelligence artificielle Manus. La Chine a bloqué l’acquisition de Manus par Meta pour environ 2 milliards de dollars, ordonnant que l’accord soit annulé même après que les employés aient rejoint Meta et que les investisseurs initiaux de Manus aient déjà été payés. Cette décision souligne à quel point la Chine renforce son contrôle sur l’IA en tant que technologie stratégique, d’autant plus que les startups nationales tentent de « laver » leur identité à Singapour, en transférant leur siège social dans la nation insulaire pour attirer des capitaux, des puces ou des acheteurs étrangers. Cette décision met en évidence le découplage accéléré des écosystèmes d’IA américain et chinois, les fondateurs étant de plus en plus pris entre les restrictions américaines en matière d’investissement et la surveillance croissante de Pékin sur les restructurations à l’étranger. Pour une analyse approfondie de la décision, consultez cet article de Nicholas Gordon, rédacteur en chef de Fortune pour l’Asie.

OEIL SUR LA RECHERCHE SUR L’IA

Anthropic montre des progrès dans l’utilisation de l’IA pour automatiser la recherche sur la sécurité de l’IA. Dans un article de blog accompagné d’un document de recherche, la société a déclaré qu’un groupe de chercheurs qu’elle a parrainé a montré que Claude Opus 4.6 pourrait aider à concevoir et à mener des recherches qui indiquent un moyen de résoudre un problème difficile en matière de sécurité de l’IA : comment une intelligence plus faible, qu’il s’agisse d’un modèle d’IA ou potentiellement d’une personne, peut-elle superviser un modèle d’IA plus intelligent ? Neuf instances parallèles de l'”Automated Alignment Investigator” de Claude, équipées de certains outils pour mener à bien l’enquête, ont chacune été poussées vers une hypothèse initiale légèrement différente. Les Claude ont ensuite dû mener la recherche en utilisant le modèle de poids ouvert Qwen 3-4B Base d’Alibaba comme modèle d’IA puissant, et Qwen 1.5-0.5B-Chat comme modèle de supervision le moins performant. Ils ont été autorisés à passer sept jours à formuler des hypothèses sur les expériences, puis les résultats ont été comparés à ce que deux chercheurs en sécurité de l’IA humaine avaient pu faire sur un calendrier similaire.

Les Claude ont été testés pour voir s’ils pouvaient faire en sorte que le modèle le plus fort réussisse aussi bien qu’il le pouvait à une série de tests, même si le modèle le plus faible lui-même avait des résultats bien moins bons sur ces tâches. Les Claude, dans l’ensemble, ont bien fait, trouvant des moyens pour amener le modèle faible à convaincre le modèle fort de récupérer 97 % de « l’écart de performance » entre le modèle faible et le modèle fort, tandis que les chercheurs en IA humaine n’ont réussi à combler que 23 % de cet écart. De plus, les méthodes se sont généralisées à des tâches mathématiques et de codage invisibles, mais ne se sont pas généralisées à un modèle différent. De plus, les enquêteurs ont parfois découvert que les Claude essayaient de tricher en instruisant simplement directement le modèle fort au lieu de trouver des moyens d’amener l’enseignant faible à superviser le modèle fort. Bien qu’il ne s’agisse pas d’un résultat parfait, le coût informatique total des expériences réalisées par Claudes était de 18 000 $, ce qui, selon Anthropic, pourrait signifier que ces techniques automatisées pourraient encore être utiles pour trouver de nouvelles directions de recherche que les humains peuvent poursuivre.

VOUS AVEZ UN CALENDRIER

23-27 avril : Conférence internationale sur les représentations de l’apprentissage (ICLR), Rio de Janeiro, Brésil.

22-24 avril : Google Next, Las Vegas.

8-10 juin : Fortune Brainstorm Tech, Aspen, Colorado. Demandez de l’aide ici.

17-20 juin : VivaTech, Paris.

6-11 juillet : Conférence internationale sur l’apprentissage automatique (ICML), Séoul, Corée du Sud.

7-10 juillet : Sommet AI for Good, Genève, Suisse.

ALIMENTATION POUR LE CERVEAU

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici