Les affirmations exagérées sur l’IA sont critiquées et un bilan réglementaire est à venir | Fortune

Les affirmations exagérées sur l’IA sont critiquées et un bilan réglementaire est à venir | Fortune

Rétrospectivement, l’intelligence artificielle allait toujours être davantage une affaire de marchés financiers que de technologie. Une fois que les récits sont devenus aussi importants que les capacités, les préoccupations concernant ce que l’on appelle le « lavage de l’IA » sont devenues inévitables. À peine un an après le lancement public de ChatGPT, les régulateurs ont commencé à tirer la sonnette d’alarme. En mars 2024, la Securities and Exchange Commission des États-Unis a porté plainte contre deux sociétés de conseil en investissement, Delphia (USA) Inc. et Global Predictions Inc., pour des déclarations concernant leur utilisation de l’IA dans les services de conseil en investissement. Les régulateurs ont allégué que les sociétés faisaient la promotion de capacités d’investissement basées sur l’IA qu’ils ne pouvaient pas justifier, y compris l’affirmation d’une société selon laquelle elle était « le premier conseiller financier réglementé en matière d’IA ».

Le cycle de lavage de l’IA n’est pas terminé. Sur les 51 recours collectifs en matière de valeurs mobilières liés à l’IA déposés au cours des cinq dernières années, une majorité significative incluait des allégations selon lesquelles les entreprises auraient exagéré ou dénaturé leurs capacités en matière d’intelligence artificielle, selon les données sur les litiges en matière de valeurs mobilières compilées par le cabinet de conseil Secretary.

Mais la tendance la plus notable aujourd’hui est que de nombreux différends ne portent plus sur l’existence ou non de l’IA.

Certains des premiers cas de blanchiment d’IA ressemblaient à des accusations de fraude traditionnelles, les critiques affirmant que la technologie commercialisée n’existait tout simplement pas. Mais les différends tournent également autour de questions plus nuancées : l’IA change-t-elle de manière significative l’économie des entreprises ?

Cette distinction est importante. En effet, une entreprise peut déployer des modèles d’apprentissage automatique ou des analyses automatisées tandis que les investisseurs se demandent si ces systèmes améliorent sensiblement les marges, augmentent les revenus ou créent des avantages concurrentiels défendables.

Malgré des incitations évidentes à se vanter, les entreprises doivent faire preuve de discipline et de précision dans la description des capacités de l’IA. Les allégations concernant l’intelligence artificielle doivent être techniquement exactes, viables sur le plan opérationnel et cohérentes avec les résultats financiers de l’entreprise.

Les conséquences d’un manque de précision peuvent être importantes. Les entreprises qui surestiment leurs capacités peuvent être confrontées à des enquêtes réglementaires, à des litiges en matière de valeurs mobilières, à des atteintes à leur réputation et à des pressions sur les valorisations.

Les récents épisodes de marché illustrent la rapidité avec laquelle ces discours peuvent se heurter à l’examen minutieux des investisseurs. La société d’ingénierie de données Innodata, Inc. offre un exemple. Le site Web Motley Fool a récemment qualifié l’entreprise de « joyau caché sur le marché en plein essor de l’IA ». Mais début 2024, un vendeur à découvert l’a accusé d’avoir surestimé le rôle de l’intelligence artificielle dans son modèle économique, ce qui a conduit à un recours collectif et à une chute de 30 % du cours de son action. Bien que l’entreprise opère clairement dans l’écosystème de l’IA, elle a dû défendre ses révélations.

Les investisseurs eux-mêmes sont également confrontés à des risques dans un environnement axé sur le récit. Les sociétés de capital-investissement, par exemple, opèrent actuellement sur un marché des transactions caractérisé par moins de transactions et une concurrence intense pour les actifs. Dans de telles conditions, la pression exercée pour déployer des capitaux et rester pertinent auprès des partenaires limités peut inciter à accepter des discours technologiques ambitieux avec une diligence moins rigoureuse que celle qui serait normalement appliquée.

Les affirmations concernant l’intelligence artificielle peuvent être particulièrement difficiles à vérifier lors de fenêtres de négociation serrées. L’évaluation de la qualité des modèles d’apprentissage automatique, de l’infrastructure de données et des capacités de déploiement nécessite souvent une expertise technique spécialisée. Sans un examen minutieux, les investisseurs risquent de payer des valorisations plus élevées pour des capacités technologiques encore expérimentales, de portée limitée ou économiquement non pertinentes.

Le cycle actuel des revendications en matière d’IA ressemble à l’augmentation rapide des investissements environnementaux, sociaux et de gouvernance. Cette époque a donné lieu à une vague de discours ambitieux sur la durabilité des entreprises, suivie par une surveillance réglementaire et des litiges croissants concernant ce que l’on appelle le « greenwashing ».

La leçon ESG est instructive. Même lorsque les entreprises croient sincèrement au potentiel à long terme de leurs stratégies, des discours vagues ou exagérés peuvent créer une exposition juridique. Lorsque les informations divulguées dépassent la réalité opérationnelle vérifiable, elles appellent un examen minutieux de la part des régulateurs, des investisseurs et des vendeurs à découvert.

L’intelligence artificielle est désormais dans une phase similaire.

L’histoire nous enseigne également que les périodes d’enthousiasme technologique sont souvent suivies de normes de divulgation plus strictes. Le boom des dotcoms de la fin des années 1990 est instructif. À l’époque, l’ajout de « .com » au nom d’une entreprise pouvait entraîner des hausses immédiates de valorisation. Les modèles économiques étaient parfois vaguement définis et les pratiques de divulgation n’étaient pas toujours à la hauteur de l’enthousiasme des investisseurs à l’égard de l’économie Internet émergente.

Bien sûr, la bulle a fini par éclater. Le Congrès a adopté la loi Sarbanes-Oxley de 2002, qui a considérablement renforcé les exigences de divulgation des entreprises et la responsabilité des dirigeants. Les évaluations fondées sur des récits qui alimentaient autrefois l’enthousiasme des investisseurs sont devenues des sources de risque juridique si les informations sous-jacentes s’avéraient inexactes ou trompeuses.

La leçon plus large de l’ère Internet n’est cependant pas que l’enthousiasme technologique était déplacé. De nombreuses entreprises nées au cours de cette période sont finalement devenues parmi les plus influentes de l’économie mondiale. Ce qui a changé n’est pas la trajectoire de l’innovation, mais les normes qui régissent la manière dont les entreprises communiquent avec les investisseurs.

L’intelligence artificielle suivra probablement une trajectoire similaire. Le marché actuel récompense les récits ambitieux sur l’IA et les limites de la divulgation continuent d’évoluer. Mais si l’on en croit l’histoire, il est probable qu’une surveillance réglementaire plus rigoureuse et des attentes plus précises en matière de divulgation suivront. Les entreprises doivent communiquer sur l’innovation avec suffisamment de clarté et de discipline pour éviter de transformer leurs propos en risque juridique.

Les opinions exprimées dans les commentaires de Fortune.com sont uniquement celles de leurs auteurs et ne reflètent pas nécessairement les opinions et croyances de Fortune.

Website |  + posts
spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici