Nouvelles

La justice prédictive : application inquiétante de l’IA ?

Main image

Delphine Jung

2018-05-28 11:15:00

L’une des applications concrètes de l’intelligence artificielle risque-t-elle de déshumaniser la justice ?

Laurence Léa Fontaine, professeur au département des sciences juridiques de l’UQAM
Laurence Léa Fontaine, professeur au département des sciences juridiques de l’UQAM
Pour discuter du sujet, Laurence Léa Fontaine, professeur au département des sciences juridiques de l’UQAM, Éric Mathevet, doctorant à l’Université Paris 1 Panthéon-Sorbonne, Université de Montréal et Marc Queudot, doctorant en informatique à l’UQAM, étaient réunis lors d’une journée de conférence organisée par l’UQAM.

À cette occasion, M. Mathevet a rappelé que déjà dans les années 50, on s’intéressait aux éléments extérieurs qui influencent les décisions de justice. D’ailleurs, ces biais sont un des éléments importants dont tiennent compte les avocats.

Pour l’expert, il y a trois grandes familles de technologies algorithmiques. « Il y a celles qui s’intéressent au dossier du justiciable, celles qui s’intéressent à l’administration judiciaire et celles qui concernent la stratégie procédurale », détaille-t-il.

La première permet par exemple de connaître les coûts d’un procès, ce qui peut être intéressant pour le justiciable s’il hésite à aller de l’avant.

La deuxième est surtout utilisée pour calculer les risques de récidives d’un prévenu. L’IA commence d’ailleurs à servir ce dessein aux États-Unis.

L’Américain Eric Lomis a par exemple été condamné à six ans de prison pour avoir fui la police dans une voiture volée. Une cour du Wisconsin s’est en partie appuyée sur un haut risque de récidive calculé par le logiciel Compas.

N’ayant pas accès à l’algorithme, Eric Loomis considère qu’il n’a pas bénéficié d’un procès équitable. Débouté par la Cour suprême de l’État du Wisconsin, il tente maintenant un recours auprès de la Cour suprême des États-Unis.

Enfin, la troisième famille de technologies algorithmiques a pour objectif de suggérer le meilleur avocat en fonction du juge qui va instruire.

Justice prédictive ne vaut pas justice

Marc Queudot, doctorant en informatique à l’UQAM
Marc Queudot, doctorant en informatique à l’UQAM
Globalement, tous les intervenants ont rappelé que la justice prédictive n’est pas synonyme de justice.

« Ses applications sont pour l’instant plutôt utiles en droit du travail, car on dispose d’une importante source de données : des préavis, des périodes d’essai, des temps de négociation, des paies, des augmentations, etc. », explique Mme Fontaine, tout en prévenant qu’il y a un risque de déshumaniser la justice, à trop se reposer sur l’IA.

Quoi qu’il en soit, il n’y a pas d’outils du genre commercialisé pour le moment au Québec, notamment car le marché est bien trop petit et le nombre de données disponibles encore trop faible.

M. Queudot explique aussi que récupérer les données reste un processus compliqué. En effet, il est encore impossible de télécharger d’un bloc tous les jugements de la Cour fédérale. « Et même si on met la main sur ces données, il faut qu’elles soient de qualité », explique-t-il.

D’autres questions, plus éthiques, sont soulevées, notamment le fait que la justice prédictive enferme le droit dans le précédent.

L’expert en informatique estime de son côté qu’il sera tout à fait possible d’apprendre aux algorithmes à prendre des décisions nouvelles, en les présentant comme un autre angle à aborder ou comme des décisions que des juges n’ont pas encore prises.
7217

2 commentaires

  1. DSG
    Yet another threat to UQAM graduates
    I'll take a robot or computer lawyer over a UQAM lawyer any day. At least my lawyer won't show up in court wearing sandals and a backpack.

    • Anonyme
      Anonyme
      il y a 5 ans
      DSG, que dites-vous à un avocat de l'UQAM qui a deux yeux aux beurre noir ?
      Rien, car il vient de se faire expliquer deux fois.

Annuler
Remarque

Votre commentaire doit être approuvé par un modérateur avant d’être affiché.

NETiquette sur les commentaires

Les commentaires sont les bienvenus sur le site. Ils sont validés par la Rédaction avant d’être publiés et exclus s’ils présentent un caractère injurieux, raciste ou diffamatoire. Si malgré cette politique de modération, un commentaire publié sur le site vous dérange, prenez immédiatement contact par courriel (info@droit-inc.com) avec la Rédaction. Si votre demande apparait légitime, le commentaire sera retiré sur le champ. Vous pouvez également utiliser l’espace dédié aux commentaires pour publier, dans les mêmes conditions de validation, un droit de réponse.

Bien à vous,

La Rédaction de Droit-inc.com

PLUS

Articles similaires