L’IA juridique se divise en deux et la plupart des gens ne voient pas la différence | Fortune

La semaine dernière, Thomson Reuters a annoncé que CoCounsel avait atteint un million d’utilisateurs dans 107 pays et territoires. Dans le même temps, Anthropic a introduit un ensemble étendu de plugins professionnels pour Claude, comprenant des outils spécialisés pour le travail juridique, financier et RH.

Ces annonces, intervenues à quelques heures d’intervalle, ont cristallisé ce qui se passe réellement dans le domaine de l’IA juridique et pourquoi une capture d’écran Wikipédia d’il y a quelques semaines est plus importante que jamais.

Il y a quelques semaines, un post d’un fondateur de X circulait sur LinkedIn. Un avocat général avait testé Claude d’Anthropic pour la révision du contrat et l’IA avait extrait des informations de Wikipédia.

Cue des prises chaudes. Les sceptiques de l’IA ont déclaré victoire : les modèles de fondation ne sont pas préparés au travail juridique. Les taureaux de l’IA l’ont considéré comme un problème de croissance. Les deux parties n’ont pas compris ce que cette capture d’écran a réellement révélé sur la direction que prend ce marché.

J’ai passé des années à développer l’IA pour les avocats de Thomson Reuters. Ce moment Wikipédia n’était pas un échec de l’IA. C’était une panne du système. Comprendre la différence déterminera qui remportera la prochaine décennie de technologie juridique, et les annonces de cette semaine montrent que la bataille s’intensifie.

Le contexte perdu

Lorsque ce GC a testé Claude, le système a fait exactement ce pour quoi il a été conçu : extraire des sources disponibles. Pas de base de données de recherche juridique, pas de contenu faisant autorité, pas de précédents solides. Uniquement le Web ouvert, qui inclut Wikipédia.

La plupart des réactions tombaient dans des camps prévisibles. L’un d’entre eux a déclaré que les modèles de fondation ne pouvaient pas gérer le travail juridique. Les autres modèles mentionnés s’amélioreront. Les deux ignorent le vrai problème.

Claude et ChatGPT sont remarquablement capables. La question n’est pas de renseignement, mais de savoir si le système environnant est conçu pour la tâche à accomplir, combinant des sources faisant autorité, une surveillance experte et des garanties pratiques.

C’est un problème architectural.

Le moment anthropique

L’annonce d’Anthropic concrétise cette division. La société a lancé des modules complémentaires spécifiques aux départements, dont un pour le travail juridique qui permet d’examiner les documents, de signaler les risques, de classer les accords de confidentialité et de suivre leur conformité. Les entreprises peuvent désormais connecter Claude Cowork à Google Drive, Gmail, DocuSign et d’autres systèmes d’entreprise.

C’est exactement le genre de mouvement qui a secoué les titres de logiciels en février : nos actions Thomson Reuters ont chuté de plus de 30 % lors de la vente initiale. Mais lorsque nous avons annoncé le millionième utilisateur de CoCounsel, notre action a augmenté de 11 %, soit son plus gros gain en une seule journée depuis 2009.

Le marché commence à comprendre quelque chose d’important : il existe une différence fondamentale entre l’IA capable d’automatiser les flux de travail et l’IA capable de gérer le travail juridique autorisé.

La véritable fracture dans l’IA juridique

Une grande partie de la confusion dans le débat juridique actuel sur l’IA vient du fait que tous les travaux juridiques sont traités sur un pied d’égalité alors qu’ils ne le sont pas. Le travail juridique peut être globalement divisé en deux catégories : le travail qui nécessite de l’autorité et le travail qui n’en requiert pas.

Il existe une catégorie vaste et précieuse de travaux juridiques qui ne nécessitent pas de sources juridiques faisant autorité. Les avocats et les équipes juridiques utilisent couramment des logiciels pour standardiser le formatage, comparer les contrats aux manuels internes, gérer la facturation et les feuilles de temps ou automatiser les flux de travail internes. Rien de tout cela ne nécessite une jurisprudence, des lois ou une validation réglementaire.

C’est là que des produits comme Cowork, Harvey et Legora opèrent aujourd’hui en grande partie.

Pourquoi le plugin Cowork Legal change la donne

Le plugin juridique d’Anthropic mérite une attention particulière car il attaque extrêmement bien la couche non autorisée du travail juridique. En se concentrant sur les documents internes, les flux de travail et l’efficacité opérationnelle, il entre directement en concurrence avec la plupart des cas d’utilisation de base des startups verticales.

Avec des connecteurs d’entreprise aux systèmes existants et la possibilité pour les entreprises de créer des modules complémentaires personnalisés, Cowork se positionne comme le système d’exploitation pour le travail des opérations juridiques. C’est une menace directe pour les startups verticales légales d’IA.

Mais (et c’est crucial) cela ne fait pas de Cowork un substitut aux systèmes conçus pour gérer le travail juridique autorisé. Et la combinaison de ces catégories obscurcit ce qui se passe réellement sur le marché.

Là où l’autorité compte vraiment

Là où les choses changent, c’est lorsque le travail juridique requiert de l’autorité :

• Enquêter sur un problème juridique non résolu • Développer de nouveaux arguments • Valider un accord contre des lois ou des règlements • Produire un travail qui doit être cité, audité et défendu

Ces tâches nécessitent un contenu et des systèmes faisant autorité conçus pour gérer les risques, la responsabilité et la confiance.

C’est là que Thomson Reuters joue avec CoCounsel.

Lorsque nous avons créé CoCounsel, nous n’avons pas inclus de modèle de base dans une interface utilisateur. Nous intégrons la base de données Westlaw, qui contient des millions de décisions de justice, de lois et de règlements conservés au fil des décennies par des experts juridiques. Nous connectons le droit pratique avec des milliers de notes pratiques et de documents rédigés par des avocats.

La création de ce contenu a nécessité des décennies et des milliards de dollars. Il ne peut pas être recréé uniquement par un réglage fin.

Ce que montre réellement la capture d’écran de Wikipédia

L’incident de Wikipédia met en évidence ce qui se passe lorsque l’IA est utilisée sans infrastructure autorisée pour des tâches qui l’exigent. Vous avez des hallucinations et des erreurs et, surtout, vous perdez confiance.

Ce n’est pas propre à Claude. Tout système chargé d’effectuer un travail juridique faisant autorité sans sources faisant autorité échouera de la même manière, même avec les plugins les plus sophistiqués.

Pourquoi est-il si difficile d’organiser le droit

La loi prête à confusion. Il est fragmenté entre les juridictions et une grande partie n’est pas entièrement numérique. Cela change constamment.

Chez Thomson Reuters, nous avons construit des systèmes d’intelligence artificielle, des pipelines de données et des flux de travail éditoriaux, et employons des milliers d’experts juridiques pour organiser le droit en un système consultable et continuellement mis à jour pour les humains et les machines. De nombreuses entreprises ont tenté de reproduire cela. La plupart ont échoué.

Nous accueillons favorablement l’innovation parce qu’elle nous rend meilleurs, mais il est important d’être honnête quant à la difficulté de ce problème.

Ce que cela signifie pour le marché

Mon opinion est que le travail juridique le plus précieux et le plus risqué nécessite de l’autorité. C’est l’IA que nous développons chez Thomson Reuters : un million de professionnels dans plus de 107 pays et territoires font désormais confiance à CoCounsel pour les emplois où les erreurs ne sont pas une option. Nous continuerons à adopter les meilleurs outils et techniques, y compris les innovations des principaux fournisseurs de modèles comme Anthropic, pour concrétiser cette vision.

Dans le même temps, des entreprises comme Harvey et Legora sont confrontées à une position stratégique de plus en plus difficile. Ils font désormais partie des opérateurs historiques disposant d’une infrastructure sous licence, de sociétés modèles de fondation présentant d’énormes avantages d’échelle et de l’écosystème de modules complémentaires d’Anthropic capables de gérer le travail juridique opérationnel. Ce n’est pas un endroit facile pour être compétitif à long terme.

L’évolution d’Anthropic vers des ajouts juridiques ne menace pas ce que nous faisons : elle le clarifie. Le marché se divise en IA opérationnelle et IA autorisée. Les deux sont précieux. Mais ce ne sont pas les mêmes.

Cette capture d’écran de Wikipédia ne prouve pas que l’IA ne peut pas effectuer de travail juridique. Cela démontre que l’IA juridique nécessite plus qu’un modèle intelligent, même équipé de plugins sophistiqués.

Cela nécessite un contenu faisant autorité, une expertise approfondie du domaine, une infrastructure et des systèmes de gouvernance conçus pour le risque professionnel. Les annonces faites cette semaine par Anthropic et Thomson Reuters montrent que cette fracture est réelle et croissante.

Les entreprises qui comprendront cela gagneront. Les autres finiront par apprendre à leurs dépens.

Les opinions exprimées dans les commentaires de Fortune.com sont uniquement celles de leurs auteurs et ne reflètent pas nécessairement les opinions et croyances de Fortune.

spot_imgspot_img

Articles connexes

spot_imgspot_img

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici