L'événement mondain, qui regroupe plusieurs grandes pointures de la magistrature québécoise invitées à échanger avec les nouveaux avocats, a regroupé près de 200 personnes au Musée Pointe-à-Callière, mercredi soir à Montréal.
Si le droit peut tirer profit des avancées de l'intelligence artificielle, cette dernière n'en comporte pas moins des risques importants, a dit la juge Duval Hesler en substance.
Celle qui été des premiers balbutiements du tribunal fédéral des droits de la personne, un « comité ad hoc créé avant même que la Charte n'existe », a livré des observations émues relativement aux risques que constitue le recours aux algorithmes dans le système de justice.
L'intelligence artificielle, soit la capacité des machines à réaliser des tâches réfléchies, repose notamment, en droit, sur la capacité d'algorithmes de faire des prévisions basées sur l'apprentissage.
« On peut d'abord s'inquiéter du respect de la vie privée », a expliqué la première femme juge en chef du Québec. Déjà, l'ubiquité des technologies permettant tant la cueillette d'informations personnelles que la reconnaissance faciale pose des défis quant au respect de la vie privée, a soutenu la grande patronne de la Cour d'appel.
Même si on peut se réjouir des avancées permises par l'IA, il faut se garder d’un excès de zèle, a dit Nicole Duval Hesler. « C'est une boîte de Pandore dont il sera difficile de refermer le couvercle », a-t-elle déclaré.
D'où l'importance pour les juristes de garder l'oeil ouvert contre de possibles dérives de l'utilisation de l'IA.
Préjugés et discrimination
Citant les États-Unis en exemple pour illustre le genre de problèmes auxquels un état de droit peut s'exposer en ayant une trop grande confiance envers la technologie, Nicole Duval Hesler a dit s'inquiéter des à priori qui alimentent l'IA.
« On le sait, je n'invente rien, la discrimination est souvent présente », a-t-elle dit.
Ainsi, un système qui est déjà discriminatoire pourrait bien devenir pire de par le recours à l'IA. « On s'en sert déjà pour prévoir le risque de récidive ou pour la prévision de crimes. »
C'est une pratique qui pourrait bien jouer contre les populations vulnérables du système de justice, comme les minorités.
« Un homme noir qui conduit une voiture de luxe est presque systématiquement assuré d'être arrêté par les policiers », a-t-elle fait valoir, ajoutant que c'est ainsi que les algorithmes sont alors « entachés d'un grand risque discriminatoire ».
« Si on a des algorithmes dont les bases statistiques sont déjà discriminatoires, que risque-t-il d'arriver? », a-t-elle demandé au parterre de juristes réunis pour l'occasion.
« Bien naïf celui qui s'imagine être exempt de tout biais défavorable. On parle ici de référentiels de valeurs, ancrés en nous depuis notre enfance. »
D'où l'importance de bien baliser, de bien encadrer le recours à l'IA. Car si la machine est neutre, ce qu'on y insère pour générer des prévisions est encore trop souvent le résultat d'une sélection subjective. Faisant courir le risque que la technologie ne perpétue la discrimination.

Ce plugiciel a été ajouté/modifié récemment. Son exécution ne sera pas possible avant que l'éditeur de site ne valide ces paramètres.