Quand l’IA s’invite au tribunal : rappel à l’ordre dans Specter Aviation
Gaspard Petit Et William Deschênes
2025-12-09 11:15:35

Huit citations « hallucinées » d’intelligence artificielle (IA) valent 5000 $ pour manquement important (art. 342 C.p.c.) selon l’affaire Specter Aviation. Bien que l’IA puisse améliorer l’accès à la justice, son usage non vérifié expose à des sanctions — un risque accru pour les parties non représentées. Les tribunaux québécois prônent une ouverture encadrée : l’IA est utile une fois vérifiée, traçable et appuyée par des sources officielles.
Le coût des hallucinations
Le 1er octobre 2025, la Cour supérieure rend un jugement sur une demande contestée d’homologation d’une sentence arbitrale rendue par la Chambre arbitrale internationale de Paris (CAIP) le 9 décembre 2021. En application des articles 645 et 646 C.p.c., son rôle se limite à vérifier si l’un des motifs limitatifs de refus prévus à l’article 646 est démontré. Or, les moyens invoqués — excès de pouvoir, irrégularités procédurales, atteinte aux droits fondamentaux, ordre public, abus — ne cadrent pas et sont peu convaincants. Toutefois, c’est à un autre égard que la décision retient l’attention.
Dans sa contestation, le défendeur, non représenté, s’appuie « sur toute la force possible » que l’intelligence artificielle peut lui offrir. En réponse, les demanderesses déposent un tableau recensant huit occurrences de citations inexistantes, de décisions non rendues, de références sans objet et de conclusions non concordantes. Interrogé à l’audience, le défendeur ne conteste pas que certaines références aient pu être « hallucinées ». Dans son jugement, le juge Morin situe le débat dans les principes. D’une part, l’accès à la justice impose des conditions égales pour tous (level playing field) et une gestion ordonnée et proportionnée des instances. D’autre part, la flexibilité dont bénéficient les justiciables non représentés n’autorise « jamais » la tolérance du faux :
La Cour qualifie donc la production d’extraits fictifs de jurisprudence ou d’autorités, que ce soit intentionnellement ou par simple négligence, de manquement grave qui contrevient au caractère solennel du dépôt d’une procédure. Elle s’appuie sur l’article 342 C.p.c. pour condamner le défendeur à payer 5 000 $, dans un objectif de dissuasion et de protection de l’intégrité du processus.
Art. 342 C.p.c. : Le pouvoir de sanctionner les manquements importants
Rappelons que l’article 342 C.p.c. provient de la réforme adoptée en 2014 et entrée en vigueur en 2016. Autorisant le tribunal à sanctionner, à titre de frais de justice, les manquements importants survenus en cours d’instance par une somme juste et raisonnable, cette disposition est de nature essentiellement punitive et dissuasive. Il s’agit par ailleurs d’un pouvoir distinct du régime des articles 51 à 54 C.p.c. encadrant l’abus et d’une exception au régime général des frais permettant, lorsque c’est justifié, d’accorder des honoraires extrajudiciaires. Le « manquement important » doit être plus qu’anodin et d’une certaine gravité, sans exiger la mauvaise foi. Il suppose du temps et des frais additionnels et heurte les principes directeurs des articles 18 à 20 C.p.c. (proportionnalité, maîtrise et coopération)8.
Près de dix ans plus tard, la jurisprudence illustre un éventail d’usages : 100 000 $ pour le dépôt tardif de requêtes ou d’amendements entraînant des remises et du travail devenu inutile; 91 770,10 $ pour une remise, le matin du procès, faute d’avoir assuré la présence d’un témoin indispensable; 10 000 $ pour des retards répétés, la modification tardive des procédures et le non-respect d’ordonnances de gestion; 3 500 $ pour un défaut ou un retard de communication de la preuve; 1 000 $ pour le dépôt, en pleine audience, d’une déclaration non communiquée visant à prendre la partie adverse par surprise.
Sanctions et usages de l’IA au Canada et ailleurs
Par ailleurs, bien que l’utilisation de l’article 342 pour sanctionner un usage non vérifié d’outils technologiques semble constituer une première au Québec, plusieurs jugements au Canada ont déjà imposé des sanctions pour des faits similaires. Notamment, ils ont accordé :
200 $ en dépens contre une partie non représentée pour avoir déposé des écritures contenant des citations partiellement inexistantes afin de compenser le temps de vérification.
100 $ en Cour fédérale, à la charge personnelle de l’avocat, pour avoir cité des décisions inexistantes générées par l’IA, sans en divulguer l’usage, suivant le test de Kuehne + Nagel.
1 000 $ devant le Civil Resolution Tribunal de la Colombie-Britannique pour compenser le temps inutilement consacré à traiter des arguments et documents générés par l’IA et manifestement non pertinents, dans un dossier opposant deux parties non représentées.
500 $ et radiation du dossier contenant des autorités « hallucinées » par l’IA, pour non-respect de la pratique de la Cour fédérale sur l’IA17.
Le montant de 5 000 $ ordonné ici à titre dissuasif se démarque toutefois de ces autres montants essentiellement compensatoires, tout en s’inscrivant dans une tendance internationale, comme en témoignent les cas suivants :
Le 22 juin 2023, aux États-Unis (S.D.N.Y.), une pénalité de 5 000 USD a été infligée en vertu de la Rule 11, assortie de mesures non pécuniaires (avis au client et aux juges faussement cités), dans l’affaire Mata v. Avianca, Inc.18.
Le 23 septembre 2025, en Italie, une somme de 2 000 € a été prononcée ex art. 96, co. 3 c.p.c. (1 000 € à la partie adverse et 1 000 € à la Cassa delle ammende), en plus de 5 391 € de frais de justice (spese di lite), par le Tribunale di Latina19.
Le 15 août 2025, en Australie, des dépens personnels de 8 371,30 AUD ont été ordonnés contre l’avocat du demandeur, avec renvoi au Legal Practice Board of Western Australia, à la suite de citations fictives générées par l’IA (Claude, Copilot)20.
Le 22 octobre 2025, aux États-Unis (E.D. Oklahoma), des sanctions pécuniaires totalisant 6 000 $ ont été imposées individuellement à des avocats, qui ont dû rembourser des honoraires de 23 495,90 $, avec radiation des actes et obligation de redépôt vérifié.
Outre les sanctions pécuniaires, les tribunaux québécois recensent déjà plusieurs situations problématiques en lien avec l’utilisation de l’IA, par exemple :
La Régie du bâtiment du Québec a dû examiner un mémoire de 191 pages contenant de nombreuses références inexistantes. L’auteur a finalement admis avoir utilisé ChatGPT pour les formuler. Le régisseur souligne la surcharge ainsi créée et la nécessité d’un encadrement de l’usage de l’IA devant la RBQ.
Dans une affaire commerciale, la Cour soupçonne des références « hallucinées » et les écarte, jugeant sur la preuve crédible.
Au Tribunal administratif du logement (TAL), un locateur ayant lu des « traductions » du C.c.Q. obtenues au moyen de ChatGPT — qui en déformaient le sens — voit sa demande rejetée. L’abus n’est toutefois pas retenu, la bonne foi étant reconnue.
Deux décisions jumelles du TAL relèvent qu’une entente (« Lease Transfer and Co-Tenancy Agreement ») avait été rédigée avec l’aide de ChatGPT, mais le Tribunal en fait simplement l’analyse ordinaire (texte, contexte, règles du C.c.Q.) et conclut à une cession de bail différée, sans tirer de conséquence particulière du recours à l’IA.
Devant la Cour du Québec, un justiciable attribue à « ChatGPT » une formulation auto-incriminante de sa requête; la Cour rejette l’explication.
Dans une requête en exclusion de preuve, le requérant soutient qu’il s’est cru obligé de répondre aux enquêteurs après avoir fait, juste avant l’entrevue, des recherches sur Google et ChatGPT concernant ses devoirs de collaboration envers l’employeur. La Cour constate qu’il avait été clairement informé de son droit au silence et qu’il pouvait quitter ou consulter un avocat. Elle conclut donc à l’absence de contrainte réelle et admet la déclaration.
Ouverture encadrée : l’IA – oui, mais…
Ce ne sont ici que quelques dossiers d’une grande liste qui ne cesse de s’allonger, tant à l’échelle nationale qu’à l’échelle internationale. Toutefois, malgré cette tendance, la décision Specter Aviation évite de stigmatiser l’IA. Le tribunal insiste plutôt sur une approche d’ouverture encadrée, rappelant qu’une technologie qui favorise l’accès doit être « saluée et encadrée » plutôt que proscrite.
Cette ouverture s’accompagne d’exigences claires, conformément à l’avis institutionnel que la Cour supérieure avait publié le 24 octobre 2023 et dans lequel elle exigeait de la prudence, un recours à des sources fiables (sites Web des tribunaux, éditeurs reconnus, services publics établis) et un « contrôle humain rigoureux » des contenus générés. En fait, les guides de pratique des différents tribunaux abondent dans le même sens : il faut encadrer sans bannir.
La Cour fédérale exige une déclaration lorsque du contenu généré par l’IA est intégré à un écrit déposé et insiste sur le « maillon humain » de vérification. La Cour d’appel du Québec, la Cour du Québec et les cours municipales formulent des mises en garde analogues : prudence, sources faisant autorité, hyperliens vers des banques reconnues et responsabilité pleine de l’auteur. Nulle part l’IA n’est bannie; partout, elle est conditionnée à la vérification et à la traçabilité.
Quelques indices suggèrent que la magistrature a elle-même recours à l’intelligence artificielle. À la Division des petites créances, un juge a joint à au moins deux reprises, par courtoisie, des traductions anglaises générées par ChatGPT, en précisant leur absence de valeur légale et la primauté de la version française.
En droit de la famille, une décision de la Cour supérieure en matière familiale utilise manifestement un lien de Statistique Canada repéré au moyen d’un outil d’IA (l’URL comporte « utm_source=chatgpt.com »), mais le raisonnement demeure ancré dans les sources primaires et la jurisprudence : l’IA sert de repérage, pas de fondement.
Une décision rendue le 3 septembre dernier par la Commission d’accès à l’information illustre particulièrement bien cette ouverture pour un usage encadré. Dans l’affaire Breton c. MSSS, le tribunal admet des pièces contenant du contenu généré par Gemini et Copilot, parce qu’elles sont corroborées par des sources primaires déposées (Journal des débats, extraits de journaux, sites officiels) et pertinentes. Malgré l’art. 2857 C.c.Q. et la souplesse du droit administratif, le tribunal rappelle que l’IA est recevable si, et seulement si, son contenu est vérifié, traçable et étayé par des sources officielles.
L’IA qui veut nous plaire et qu’on veut croire
Par ailleurs, deux constantes se dégagent des cas sanctionnés : une confiance excessive dans la « fiabilité » de l’IA et une sous-estimation du risque d’hallucination. Aux États-Unis, dans l’affaire Mata v. Avianca, des avocats affirment avoir cru que l’outil ne pouvait pas inventer des causes. Au Canada, dans l’affaire Hussein v. Canada, l’avocat du demandeur dit s’être fié de bonne foi à un service d’IA sans se rendre pleinement compte de la nécessité de vérifier les références.
En Australie, dans l’affaire JNE24 v. Minister for Immigration and Citizenship, le tribunal rapporte une confiance exagérée dans des outils (Claude, Copilot) et une vérification insuffisante. Au Québec, le TAL constate qu’un locateur « a été induit en erreur par l’utilisation de l’intelligence artificielle », tandis que le Tribunal administratif du travail (TAT) relève un recours à des réponses générées par ChatGPT présentées comme « précises à environ 92 % ». Ces exemples décrivent un biais de confiance généralisé particulièrement risqué pour les personnes non représentées : l’IA est perçue comme un accélérateur fiable alors qu’elle exige un surcroît de contrôle humain.
Les grands modèles de langage sont optimisés pour produire des réponses plausibles et engageantes; sans encadrement, ils tendent à confirmer les attentes de l’utilisateur plutôt qu’à signaler leurs propres limites. Un avis publié en avril dernier par OpenAI concernant une mise à jour qui rendait son modèle « trop complaisant » témoigne de la complexité sous-jacente à établir une juste balance entre engagement et rigueur. On comprend dès lors qu’un plaideur quérulent ait pu se convaincre, sur la foi d’une réponse d’IA, être en droit de poursuivre personnellement un juge pour des actes judiciaires perçus comme partiaux.
Des modèles entraînés pour « plaire » ou maintenir l’engagement peuvent générer des réponses qui, en l’absence de contextualisation juridique, amplifient des interprétations erronées ou imprudentes. Bien que les fournisseurs de services d’IA cherchent généralement à limiter leur responsabilité quant aux conséquences de réponses erronées, la portée de telles clauses est nécessairement restreinte.
Lorsque ChatGPT, Claude et Gemini appliquent des principes juridiques à des faits rapportés par un utilisateur, il semble légitime de se demander si l’entité qui offre ce service ne s’expose pas aux règles d’ordre public qui font de ces gestes des actes réservés aux avocats et auxquelles on ne pourrait déroger par simple clause de non-responsabilité. Dans Standing Buffalo Dakota First Nation v. Maurice Law, la Cour d’appel de la Saskatchewan rappelle d’ailleurs que l’interdiction de pratiquer le droit vise toute « personne » (y compris une personne morale) et envisage expressément que la médiation technologique ne change pas l’analyse des actes réservés.
Au Québec, ce principe trouve son ancrage dans l’article 128 de la Loi sur le Barreau et le Code des professions : l’information juridique générale est permise, mais l’avis individualisé demeure un acte réservé. Si certaines dérives ont concerné des avocats, les justiciables non représentés apparaissent les plus exposés aux effets de l’IA.
Faut-il miser d’abord sur l’éducation des utilisateurs ou restreindre certains cas d’usage? La tension entre l’accès à la justice et la protection du public est, ici, manifeste.
Conclusion
Bref, le jugement Specter Aviation confirme que l’intelligence artificielle a sa place au tribunal, à condition d’être rigoureusement encadrée, et qu’elle est utile lorsqu’elle est vérifiée, mais sanctionnable lorsqu’elle ne l’est pas. On constate que, si l’IA offre des possibilités sans précédent en matière d’accès à la justice, la conjuguer avec la protection du public demeure un enjeu de taille. Malgré ce signal clair, contenir la confiance excessive envers des outils conçus pour être engageants, complaisants et qui prétendent pouvoir répondre à tout restera un défi pour les années à venir.
À propos des auteurs
Gaspard Petit est avocat et conseiller technique au sein du groupe de Propriété Intellectuelle chez Lavery.
William Deschênes est stagiaire en droit chez Lavery.