Opinions

La responsabilité des biens intelligents: enjeux et défis

Main image

Léonie Gagné Et Laurence Isabelle

2023-10-19 11:15:00

Quels sont les enjeux actuels en matière de responsabilité des biens intelligents?
Léonie Gagné et Laurence Isabelle, les auteures de cet article. Source: Lavery
Léonie Gagné et Laurence Isabelle, les auteures de cet article. Source: Lavery
En 2023, qu’en est-il des questions de responsabilité en matière de biens intelligents? Le régime de responsabilité du fait des biens prévu au Code civil du Québec a été instauré au début du 20e siècle en réponse à la révolution industrielle et au nombre croissant d’accidents du travail attribuables à la défaillance d’outils.

Le législateur de l’époque ne pouvait évidemment pas anticiper que les outils auxquels cette réglementation s’appliquerait seraient, un siècle plus tard, dotés de capacités d’autoapprentissage leur permettant d’accomplir des tâches précises de façon autonome!

Ces « biens intelligents », qu’ils soient immatériels ou intégrés dans des biens matériels, ne semblent pouvoir échapper pour le moment aux impératifs du droit commun. Aux fins de notre examen, l’expression « biens intelligents » désigne les biens qui présentent les capacités suivantes :
  • effectuer des tâches précises sans être sous le contrôle immédiat d’un être humain (autoapprentissage); et

  • capter et analyser les données de leur environnement (interconnectivité);

  • adapter leur comportement afin d’effectuer une tâche qui lui est confiée de manière plus efficiente (autonomie) (critère facultatif)

  • Ces capacités sont propres à ce que l’on appelle communément l’intelligence artificielle (ci-après « IA »).

    Application du régime de responsabilité du droit commun aux biens intelligents

    Bien que le Canada se targue d’être un « chef de file mondial dans le domaine de l’IA », la première loi canadienne régissant l’IA se fait toujours attendre. Au Québec, la réglementation des biens intelligents en est à ses premiers balbutiements.

    À ce jour, outre l’encadrement applicable aux véhicules autonomes, aucune loi en vigueur ne prévoit un régime de responsabilité civile comportant des règles distinctes régissant les litiges relatifs à la commercialisation et l’utilisation de biens intelligents. Deux éléments ont une incidence importante en matière de responsabilité applicable aux biens intelligents: l’opacité et la répartition de la responsabilité.

    Ceux-ci devraient nécessairement être pris en compte dans l’élaboration d’un cadre réglementaire applicable à l’IA. Mais encore, qu’en est-il de l’imputabilité de l’humain?

    L’opacité de l’IA et la responsabilité du fabricant

    Lorsqu’un bien autonome exécute une tâche, il n’est pas toujours possible – ni pour le consommateur ni pour le fabricant – de savoir comment l’algorithme a traité l’information à l’origine de son action. C’est ce que les chercheurs qualifient « d’opacité » ou encore de phénomène de la « boîte noire » lié à l’IA.

    Le cadre législatif entourant la responsabilité du fabricant est prévu au Code civil du Québec ainsi qu’à la Loi sur la protection du consommateur. Il se dégage de ces dispositions une obligation pour le distributeur, pour le vendeur professionnel et pour le fabricant de garantir que le bien vendu est exempt de vices cachés.

    En vertu du régime de responsabilité du produit, un renversement de la preuve s’opère puisqu’il existe une présomption de connaissance du vice de la part du fabricant.

    Deux moyens d’exonération s’offrent à lui
  • D’une part, le fabricant peut faire valoir que la faute du consommateur, d’un tiers ou la force majeure est la cause du défaut;

  • D’autre part, il peut soutenir qu’au moment de la mise en marché du bien, le défaut n’était pas susceptible d’être découvert compte tenu de l’état des connaissances scientifiques.

  • Ce dernier moyen vise précisément les risques inhérents à l’innovation technologique.

    Ceci étant dit, bien que certains risques se révèlent uniquement lors de la commercialisation d’un produit, l’obligation d’information du fabricant est continue et son application est fonction de l’avancement des connaissances des risques liés au produit. De ce fait, l’opacité de l’IA peut nuire à la détermination de la responsabilité.

    Difficulté au niveau du partage de responsabilité et imputabilité de l’humain

    Il arrive que la composante « intelligente » soit intégrée à un bien par un sous-traitant du fabricant. Dans la décision Venmar Ventilation, la Cour d’appel a déterminé que le fabricant d’un échangeur d’air ne pouvait pas être disculpé de sa responsabilité même si le défaut de son produit était directement lié à celui du moteur fabriqué par un sous-traitant.

    Dans cette perspective, nous pouvons anticiper que la composante intelligente du bien serait susceptible d’engendrer une multiplication des appels en garantie et, en conséquence, des dossiers litigieux de type pyramidaux. Cela pourrait aussi compliquer l’analyse du partage de responsabilité.

    Également, si la détermination de l’identité de la personne qui a la garde physique du bien intelligent semble évidente, déterminer l’identité de celle qui exerce un contrôle réel sur ce bien peut se révéler beaucoup plus ardu puisque la garde et le contrôle ne sont pas nécessairement l’apanage d’une seule et même « personne ».

    Deux types de gardiens du bien intelligent peuvent se distinguer :
  • Celui qui détient le pouvoir de contrôle, de direction et de surveillance sur le bien au moment de son utilisation (garde frontale) ;

  • Celui qui déteint ces pouvoirs sur l’algorithme qui confère au bien son autonomie (garde en amont).

  • L’un ou l’autre de ces gardiens pourraient engager sa responsabilité s’il participe au préjudice par sa faute.

    Il pourrait donc être difficile de partager la responsabilité entre l’utilisateur humain et les gardiens de l’algorithme d’IA. Par exemple dans le cas d’un agent conversationnel, il pourrait être complexe de déterminer qui entre l’utilisateur humain et l’algorithme IA est responsable de propos diffamatoires ou discriminatoires.

    C-27: Projet de loi canadien en matière d'intelligence artificielle

    Le 16 juin 2022, le premier projet de loi canadien en matière d’IA (« Projet de loi C-27 ») a été introduit à la Chambre des Communes. Au moment d’écrire ces lignes, le Projet de loi C-27 est toujours à l’examen par le Comité permanent de l’industrie et de la technologie. La troisième partie du Projet de loi C-27 édicte la Loi sur l’intelligence artificielle et les données.

    Si elle était adoptée dans sa forme actuelle, cette loi s’appliquerait au commerce international et interprovincial des « systèmes d’IA à incidence élevée » (« Systèmes »).

    Bien que le législateur n’ait pas encore clairement défini les caractéristiques qui distinguent l’IA à incidence élevée des autres formes d’IA, pour le moment, le gouvernement du Canada mentionne notamment des Systèmes pouvant potentiellement « influencer le comportement humain sur une grande échelle » et des Systèmes critiques pour la santé et la sécurité. Il nous est permis de croire qu’il pourrait s’agir de l’IA qui présente un risque élevé pour les droits fondamentaux des utilisateurs.

    Le Projet de loi C-27 permettrait notamment de sanctionner le comportement de celui qui « rend disponible » un Système dont l’utilisation cause un « préjudice sérieux » ou un « dommage considérable ».

    Même si le Projet de loi n’encadre pas précisément la responsabilité civile, les grands principes qui y sont énoncés reflètent les pratiques exemplaires applicables à ces technologies. Ces pratiques exemplaires peuvent donc indiquer aux fabricants de technologie IA comment se comporterait en semblable matière un fabricant prudent et diligent placé dans les mêmes circonstances. Les six grands principes au Projet de loi sont les suivants:
  • Transparence : Fournir au public l’information concernant les mesures d’atténuation, l’utilisation visée des Systèmes et le « contenu qu’il est censé générer »;

  • Supervision : Fournir des Systèmes susceptibles de supervision humaine; Justice et équité : Mettre sur le marché des Systèmes pouvant limiter les potentiels résultats discriminatoires;

  • Sécurité : Évaluer proactivement des Systèmes afin de prévenir les préjudices « raisonnablement prévisibles »;

  • Responsabilité : Mettre en place des mesures de gouvernance afin d’assurer le respect des obligations légales applicables aux Systèmes;

  • Robustesse : Assurer que les Systèmes fonctionnent comme prévu.

Nous ajoutons le principe de mitigation des risques, considérant l’obligation de la loi « d’atténuer » les risques liés à l’utilisation des Systèmes.

Conclusion

Le « Tortoise Global AI Index » classe chaque année les pays en fonction de leurs percées dans le domaine de l’IA. Cette année le Canada atteint le 5e rang, se classant devant bon nombre de pays de l’Union européenne.

Force est de le constater que le droit en vigueur ne reflète pas encore l’importance croissante de ce secteur dans notre pays.

Bien que le Projet de loi C-27 puisse offrir des éclaircissements quant aux pratiques exemplaires en matière de développement de biens intelligents, il sera intéressant de voir comment ils seront appliqués lorsque des questions visant la responsabilité civile seront soulevées.

À propos des auteures

Me Léonie Gagné est membre du groupe Litige du bureau de Montréal de Lavery Avocats.

Sa pratique se concentre principalement dans les domaines du droit des assurances, de la responsabilité du fabricant et du vendeur ainsi que de la responsabilité civile et professionnelle. Elle agit tant en demande qu’en défense.

Laurence Isabelle s’est jointe à l’équipe de Lavery en tant qu’étudiante en 2023 et y effectuera son stage en 2025. Elle complète présentement son baccalauréat en droit à l’Université de Montréal.

1890
Publier un nouveau commentaire
Annuler
Remarque

Votre commentaire doit être approuvé par un modérateur avant d’être affiché.

NETiquette sur les commentaires

Les commentaires sont les bienvenus sur le site. Ils sont validés par la Rédaction avant d’être publiés et exclus s’ils présentent un caractère injurieux, raciste ou diffamatoire. Si malgré cette politique de modération, un commentaire publié sur le site vous dérange, prenez immédiatement contact par courriel (info@droit-inc.com) avec la Rédaction. Si votre demande apparait légitime, le commentaire sera retiré sur le champ. Vous pouvez également utiliser l’espace dédié aux commentaires pour publier, dans les mêmes conditions de validation, un droit de réponse.

Bien à vous,

La Rédaction de Droit-inc.com

PLUS

Articles similaires