Me Antoine Aylwin
Me Antoine Aylwin
C’est à cette question que Me Antoine Aylwin a tenté de répondre lors de l’Assemblée annuelle de l’Association canadienne des parajuristes qui s’est déroulée le 1er juin dernier au centre-ville de Montréal.

Sa conférence, articulée autour du film Matrix, a notamment présenté les avantages et les inconvénients de l’utilisation de l’intelligence artificielle (IA) à la lumière des questions de protection des données.

Il faut dire que l’IA - en l'occurrence ses premières étapes que sont l’automatisation et l’apprentissage assisté par un humain - est désormais devenue un incontournable pour les avocats.

« Ce qu’on nous demande, c’est d’être de plus en plus efficaces et d’utiliser les outils à la fine pointe de la technologie pour mieux servir les clients, explique à Droit-inc Me Aylwin. Si l’on peut sauver des coûts et du temps, alors il y a une pertinence à utiliser ces outils-là. »


De plus en plus de logiciels

Chez Fasken, par exemple, les juristes utilisent un logiciel de révision de dossier nommé Kira. Quand l’avocat a 200 contrats à analyser, cela peut prendre des heures.

Le logiciel, lui est capable, d’aller chercher en quelques secondes des informations précises dans les documents, comme par exemple des clauses de non-concurrence, et d’identifier les différences dans ces clauses : s’appliquent-elles trois mois? Six mois? Sur quel territoire?

« Nous avons de plus en plus de logiciels à l’interne, dit Me Aylwin. Nous donnons même de la formation aux clients à ce sujet. »

Bien entendu, tout est fait pour le séduire, ce client. Si un travail d’avocat lui est facturé 50 000 $ contre 5 000 $ pour un robot (gain de temps oblige), il n’est pas difficile de savoir quel est va être son choix en bout de ligne...


Les avantages

Les avantages de l’IA sont liés aux trois piliers que sont le consentement, les mesures de sécurité et la collecte. Leur principal attrait est le gain de temps qu’ils présentent.

Prenons le robot « Polisis » : il lit les politiques de vie privée en une vingtaine de secondes et répond aux questions avec un taux de succès de 82 %, ce qui est relativement élevé.

Il faudrait 76 jours de travail à temps plein aux humains pour lire toutes les politiques de vie privée de tous les sites, indique Me Aylwin.

L’IA permet donc de gagner du temps, dans un contexte où en matière de consentement, la personne doit être informée de ce qui est fait avec toute information collectée, que ce soit en termes de divulgation, de collecte et d’utilisation.


Amélioration des diagnostics et anonymat

Autres points : en matière de sécurité, les lois sont basées sur un principe de confidentialité. Les renseignements les plus sensibles (médicaux, financiers, etc.) doivent être protégés contre la copie, la perte, le vol, etc.

Et en matière de collecte, l’entreprise ne peut pas recueillir des données seulement parce qu’elle a le goût de le faire, les informations recueillies doivent être nécessaires.

Quant au premier point, si divers moyens matériels peuvent être mis en place (verrouillage des locaux, autorisations de sécurité, mots de passe, etc.), l’IA permet d’éviter que les failles de sécurité soient exploitées tout en pouvant gérer un volume d’informations excessivement importants dans un délai limité. En effet, elle analyse les données en temps réel et améliore ainsi les diagnostics sur les connections.

Quant au deuxième point, « la confidentialité différentielle » utilise l’IA pour que la collecte soit faite de façon à ce que l’on ne puisse pas relier les informations entre elles pour dresser le portrait ou le profil d’un individu. La firme Apple, par exemple, crypte les données de manière à les rendre anonymes.


Les risques

Ces derniers sont plutôt liés aux notions de transparence, de limitation, de propriété et d’accès aux informations.

Me Aylwin cite le cas du chatbot Tay créé par Microsoft dans le but de mieux comprendre les 18 -24 ans, lancé sur les réseaux sociaux pour discuter avec les utilisateurs et apprendre de nouvelles phrases. En moins de 24 heures, le chatbot a été retiré, ayant développé des réflexes racistes et s’étant même retourné contre Microsoft!

Les algorithmes ne sont pas sans faille non plus : un concours de beauté présidé par des « machines » a provoqué l’émoi.

Ces dernières se sont trompées à plusieurs reprises : les humains qui fermaient les yeux ont été identifiés comme des asiatiques, les personnes noires étaient assimilés à des gorilles. De plus, on retrouvait beaucoup de personnes blanches parmi les gagnants.

En fait, la machine présentait un biais à l’image de l’information qu’on lui avait donné, elle n’était pas neutre.

Autant d’exemples des risques liés à cette technologie.

« Il faut aborder ces enjeux-là comme nous avons abordé les innovations technologiques antérieures, conclut Me Aylwin.On ne peut pas les éviter. Les avantages sont tellement importants en matière de traitement des données ou d’efficacité que ce n’est pas comme si on avait le choix. Après, il est important d’identifier les risques pour mieux les mitiger. »