IA devant les tribunaux : des risques d’erreurs et de sanctions selon des avocats
Radio Canada
2026-01-05 13:15:20
Hallucinations juridiques, références fictives, erreurs coûteuses : l’IA inquiète de plus en plus les praticiens…
Certaines personnes utilisent désormais l’intelligence artificielle (IA) pour se représenter elles-mêmes devant les tribunaux, sans avocat.

Auparavant, si un client, habitué aux courriels courts, envoyait soudainement un long message ressemblant à une note juridique, Ron Shulman soupçonnait qu’il avait reçu l’aide d’un membre de sa famille ou d’un conjoint.
Aujourd’hui, cet avocat en droit de la famille à Toronto demande à ses clients s’ils ont utilisé l’IA. Et la plupart du temps, dit-il, la réponse est affirmative.
Presque chaque semaine, son cabinet reçoit des messages rédigés ou générés par l’IA, un changement que Me Shulman dit avoir constaté ces derniers mois.
Si l’IA peut efficacement résumer l’information ou organiser les notes, certains clients semblent s’y fier comme à une sorte de superintelligence, l’utilisant pour décider de la stratégie à adopter dans leur dossier, explique-t-il.
« Cela pose un problème majeur», car l’IA n’est pas toujours précise et a souvent tendance à se fier à l’utilisateur, indique Me Shulman en entrevue.
Certaines personnes utilisent désormais l’IA pour se représenter elles-mêmes devant les tribunaux, sans avocat, ce qui peut retarder les procédures et faire grimper les frais juridiques pour les autres parties, qui doivent alors analyser une quantité considérable de documents générés par l’IA, explique-t-il.
À mesure que l’IA s’immisce dans de plus en plus d’aspects de la vie quotidienne, elle s’intègre de plus en plus aux tribunaux et au système juridique.
Davantage de documents générés par l’IA sont soumis aux tribunaux
Des documents créés à l’aide de plateformes telles que ChatGPT ont été soumis devant les tribunaux et les commissions du Canada et des États-Unis au cours des dernières années, causant parfois des ennuis aux avocats ou aux personnes se représentant elles-mêmes devant la justice en raison de ce qu’on appelle des « hallucinations » — des références incorrectes ou tout simplement inventées.
Dans une affaire importante, une avocate de Toronto fait face à des poursuites pour outrage au tribunal après avoir inclus des cas inventés par ChatGPT dans ses documents déposés plus tôt cette année, puis l’avoir nié lorsqu’elle a été interrogée par le juge. Dans une lettre adressée au tribunal plusieurs mois plus tard, l’avocate a déclaré avoir déformé les faits par «crainte des conséquences potentielles et par pure honte».
Les hallucinations générées par l’IA peuvent avoir un coût financier et porter atteinte à la réputation.
À l’automne, un tribunal du Québec a imposé une amende de 5000 $ à un homme qui avait eu recours à l’IA générative pour préparer ses documents après s’être séparé de son avocat. Peu après, la Cour suprême de l’Alberta a condamné une femme à payer 500 $ de frais supplémentaires à ses dépens, car ses documents comprenaient trois faux mandats. Elle a averti que les parties non représentées par un avocat pourraient s’attendre à des sanctions plus importantes à l’avenir si elles ne respectaient pas les directives du tribunal concernant l’IA.
Dans plusieurs provinces, les tribunaux et les ordres professionnels ont publié des lignes directrices sur l’utilisation de l’IA. Certains, dont la Cour fédérale, exigent que les personnes déclarent avoir utilisé des modèles génératifs.
Certains avocats ayant utilisé ou rencontré l’IA dans le cadre de leur travail affirment qu’elle peut être un outil précieux si elle est utilisée judicieusement. Cependant, une utilisation inappropriée peut compromettre la vie privée, ralentir la communication, éroder la confiance et engendrer des frais juridiques importants, même en l’absence de sanctions financières.

Ksenia Tchern McCallum, avocate en immigration à Toronto, autorisée à pratiquer au Canada et aux États-Unis, constate que de plus en plus de personnes lui soumettent des recherches, voire des demandes complètes réalisées à l’aide de l’IA, qu’elles souhaitent ensuite faire examiner.
Parfois, des clients utilisent l’IA pour vérifier les faits de son travail, en analysant des documents qu’elle a préparés via une plateforme. Cette pratique peut exposer leurs renseignements personnels et nuire à leur confiance en son travail, explique-t-elle.
Cela peut mettre à rude épreuve les relations avec les clients. «Si je donne des instructions à mon client et qu’il remet en question mes décisions ou me dit : "Je ne pense pas que ce soit nécessaire, ou pourquoi devrais-je faire cela?" Comment puis-je alors le représenter et défendre au mieux ses intérêts?» , questionne Me McCallum.
«L’IA peut explorer Internet et vous indiquer les étapes générales de ce processus, mais mon expérience et ma connaissance de ce qui fonctionne et de ce qui ne fonctionne pas dans ces procédures sont des aspects qu’elle ne pourra pas reproduire», indique Ksenia Tchern McCallum.
L’IA : un niveau de qualité inférieur à celui des avocats
Les forums en ligne destinés aux personnes confrontées à des problèmes d’immigration encouragent également l’utilisation de l’IA pour préparer les dossiers et réduire les frais juridiques, ajoute-t-elle.
«Ils soumettent ces éléments, et le tribunal leur dit : "D’accord, nous constatons que vous avez utilisé l’IA, mais vous ne l’avez pas déclaré." Non seulement vous ne l’avez pas déclaré, mais vous faites référence à des cas inexistants, à des procédures qui n’existent pas, et vous citez des lois qui ne sont pas pertinentes» , raconte Me McCallum.
«Des personnes se voient attribuer des frais de justice parce qu’elles se représentent elles-mêmes au tribunal, persuadées que l’IA va rédiger de beaux mémoires à leur place, sans savoir que ce n’est pas ainsi que cela fonctionne», précise-t-elle.
«Tenter de faire des économies grâce à l’IA peut parfois avoir l’effet inverse», mentionne Ron Shulman.
Un client de Me Shulman lui a récemment transmis cinq ou six pages de documents rédigés par l’IA sur la jouissance exclusive du domicile conjugal — le droit d’un couple marié de rester dans la résidence familiale — demandant en substance à son cabinet de les inclure dans les pièces déposées au tribunal, précise-t-il. Problème? Le client n’était pas marié, le document ne s’appliquait donc pas.
«Vous venez de perdre une demi-heure de travail à lire un document inutile», déplore l’avocat.
Me Shulman indique qu’il fournit désormais à ses clients une clause de non-responsabilité de base, les informant qu’il doit lire tous les documents qu’ils lui envoient. Il les encourage également à lui demander d’expliquer les concepts juridiques plutôt que de recourir à l’IA – ou du moins à lui montrer comment l’utiliser plus efficacement.
«Il existe une forte demande pour ce type de conseils et d’informations», soutient Jennifer Leitch, directrice générale du National Self-Represented Litigants Project, une organisation qui défend les droits des justiciables non représentés et développe des ressources à leur intention.

Un apprentissage est nécessaire
L’organisation a organisé un webinaire le mois dernier pour aider les personnes sans avocat à utiliser l’IA de manière appropriée et sécurisée dans leurs affaires. Quelque 200 personnes y ont participé, rapporte-t-elle, ajoutant que d’autres sessions sont prévues pour la nouvelle année.
Pour Mme Leitch, il s’agit presque d’une forme de réduction des risques : les gens vont l’utiliser, alors utilisons-la de manière responsable.
Ses conseils incluent la vérification de l’existence et de l’exactitude des citations des affaires référencées par l’IA, la consultation des directives des tribunaux concernant l’IA et le respect des limites de longueur pour les documents déposés.
L’IA a le potentiel d’améliorer l’accès à la justice en permettant aux citoyens d’accéder à une mine d’informations et d’aide pour organiser leurs dossiers, mais actuellement, c’est un peu le Far West, surtout en matière de fiabilité, selon Mme Leitch.
«Pour les avocats en cabinet, il existe d’excellents logiciels d’IA qui facilitent la gestion, la recherche et la rédaction, mais ils sont tous payants», explique-t-elle.
«Quant aux logiciels libres, ils sont moins fiables et présentent des risques d’erreurs et d’hallucinations, contrairement aux logiciels payants.»
Les cabinets d’avocats devront utiliser une forme ou une autre d’IA pour rester compétitifs, soutient Naines Kotak, avocat spécialisé en préjudice corporel et en invalidité de longue durée dans la région de Toronto.
L’essentiel est que les avocats examinent et corrigent les résultats produits par l’IA, et qu’ils veillent au respect des règles de confidentialité et de sécurité des données ainsi que des règlements professionnels, précise-t-il.
En fin de compte, a-t-il ajouté, l’IA n’est qu’un outil et ne peut remplacer le jugement juridique, les obligations déontologiques et la compréhension humaine.
Partager cet article: