Une entreprise canadienne acquiert une IA juridique pour 1 milliard $ US

Radio Canada
2025-07-22 10:15:07
L’intelligence artificielle dans le milieu juridique n’est pas une simple tendance : elle s’apprête à occuper une place centrale.

L’entreprise vancouvéroise Clio compte bien se tailler une place de choix dans le milieu de la technologie du droit avec l’acquisition de vLex, sa base de données et son intelligence artificielle (IA) spécialisées dans le domaine juridique. Si des experts reconnaissent que l'IA juridique offre des avantages, ils mentionnent cependant de possibles dérives. Il s'agit donc de créer le cabinet d'avocats de l'avenir alimenté par l'IA, affirme le fondateur de Clio, Jack Newton.
Il qualifie l'acquisition, d'un montant de 1 milliard de dollars américains, de moment charnière pour l’industrie et réaffirme la volonté de placer Clio clairement en position de leader du marché en matière d'offre combinée pour se donner les moyens de rester dans la course à l’élaboration de la meilleure intelligence artificielle juridique de la planète.
Sa vision pour y arriver est d’ajouter les outils de vLex au logiciel administratif Clio pour rassembler au même endroit toutes les technologies utilisées par les avocats, du cabinet aux tribunaux. C'est la première fois que les outils de la pratique du droit, de la recherche juridique, de l'IA juridique et les solutions de rédaction pilotées par l'IA sont réunis dans le même système (managérial) que les avocats utilisent au quotidien, explique Jack Newton.
Selon lui, les retombées pour ses utilisateurs seraient un immense gain en efficacité, surtout face à la concurrence. Les avocats qui n'adoptent pas l'IA et qui n'adoptent pas la technologie seront tout simplement laissés pour compte.
L’IA et la productivité
Un récent article scientifique publié sur la plateforme de partage Social Science Research Network, qui n’a pas été évalué par les pairs, va dans le sens des propos de Jack Newton en ce qui concerne l’efficacité de l'IA juridique.
Un essai auprès d'étudiants en droit volontaires de l'Université du Minnesota et de l’Université du Michigan révèle un gain de productivité de 38 % (en anglais) (nouvelle fenêtre) dans cinq des six épreuves pour laquelle l’intelligence artificielle Vincent AI, développée par vLex, a été utilisée. Daniel J. Escott, chercheur au Laboratoire sur les risques et la réglementation de l’intelligence artificielle du Centre d'excellence pour l'accès à la justice de l'Université de Victoria, suggère néanmoins de ne pas généraliser ces résultats.
Les conclusions sont basées sur un essai avec des étudiants en droit. L'application directe de ces résultats à des professionnels du droit chevronnés constitue un raccourci important. Les tendances fondamentales se maintiendraient probablement, mais l'ampleur des effets pourrait différer considérablement dans la pratique. Daniel J. Escott ne rejette pas pour autant l’utilité de l’IA.
La valeur de l'intelligence artificielle dans le domaine du droit réside principalement dans sa capacité à effectuer une grande partie du travail administratif ou analytique qui, autrement, devrait être réalisé soit de manière non facturable dans le secteur privé, soit manuellement par le personnel du gouvernement ou des tribunaux, mentionne-t-il.
Gare aux « hallucinations »
Daniel J. Escott mentionne qu'une des dérives des intelligences artificielles génératives est l’ajout dans leur réponse d’informations fictives ou hors contexte, appelées hallucinations. L’agrégé supérieur de recherche à HEC Paris Damien Charlotin les décrit comme une assertion de la part d'un modèle d'IA génératif qui n'a pas de lien avec la vérité ou la réalité.
Cet avocat spécialiste des données et du droit répertorie dans une base de données des jugements comportant des hallucinations. Entre le mois d'avril et la publication de cet article, le chercheur a identifié 210 cas. Il s'avère que j'ai commencé au moment où ça a explosé, raconte Damien Charlotin.
La plupart de ces hallucinations sont générées lorsque les gens tentent de se défendre eux-mêmes, mais les professionnels ne sont pas pour autant à l'abri de ce phénomène, précise Damien Charlotin. On a des cas, par exemple, où des professionnels ont utilisé une IA juste pour formater des notes de bas de page, et (...) ils se sont retrouvés avec une hallucination alors même qu'ils voulaient citer un truc qui est réel.
Damien Charlotin cite également de mauvaises traductions, des citations erronées ou encore de l'information non pertinente, par exemple quelque chose dans le droit de la famille, alors que le cas relève du droit pénal. Jack Newton assure de son côté que Vincent AI se base sur les données de vLex, lui assurant de cette façon un haut degré de fiabilité. Aucun système d'IA générative n'est totalement immunisé contre les hallucinations. Cela dit, Vincent AI est conçu pour une fiabilité juridique, avec des garde-fous intégrés qui réduisent considérablement le risque d'hallucinations et donnent aux utilisateurs les outils nécessaires pour vérifier tout ce qu'il produit.