IA : Nous sommes à la croisée des chemins

Jean-Sébastien Desroches Et Benoit Yelle
2025-06-25 11:15:22

En mars 2017, il y a de cela plus de 3 000 jours déjà, Lavery a mis sur pied le Laboratoire juridique sur l’intelligence artificielle (L3IA) pour étudier et, surtout, anticiper les développements dans le domaine de l’intelligence artificielle (« IA »). Le but du Laboratoire L3IA, très novateur à l’époque, consistait à se placer avantageusement en amont des complexités juridiques que l’intelligence artificielle allait faire naître pour nos clients. Depuis lors, les progrès réalisés dans le domaine de l’IA sont fulgurants et dans plusieurs cas, préoccupants.
Le 19 mai 2025, Alexandre Siroisse demandait dans un article de La Presse si Montréal était encore une plaque tournante de l’IA. Il a notamment soulevé cette question dans le contexte où des investissements majeurs ont été effectués au cours des dernières années en IA par plusieurs pays, citant en exemple la France, l’Allemagne et Singapour.
Cette question d’actualité suscite la réflexion : les efforts et les investissements majeurs en recherche et développement (R&D) réalisés au Québec et au Canada se sont-ils effectivement traduits par des avancées commerciales concrètes au bénéfice des entreprises, des institutions et des Canadiens?
En d’autres mots, dans le domaine de l’IA, réussissons-nous à passer de la R & D à la commercialisation et à l’industrialisation de produits et services au Canada qui sont avant-gardistes, novateurs ou concurrentiels sur la scène internationale?
Le cadre législatif québécois et canadien soutient-il suffisamment les avancées technologiques découlant de nos investissements en IA, tout en mettant en valeur et en optimisant les retombées découlant des efforts de nos talents locaux exceptionnels que l’on retrouve dans nos universités, nos groupes de recherche, nos institutions et nos entreprises?
Il est tout aussi important de protéger la vie privée, les renseignements personnels, les données et le public dans le contexte des développements et des utilisations en IA, que de permettre à nos entrepreneurs, à nos start-ups, à nos entreprises bien établies et à nos institutions de se tailler une place avantageuse sur la scène internationale en IA, ce qui pourrait être un facteur décisif entre une société prospère à long terme et une société qui ne suit pas le rythme et perd progressivement ses avantages concurrentiels.
Par ailleurs, dans leur livre intitulé The Technological Republic: Hard Power, Soft Belief, and the Future of the West, Alexander C. Karp et Nicholas W. Zamiska abordent divers sujets liés à la technologie, à la gouvernance et à la dynamique entre les puissances mondiales. Ils mettent de l’avant leurs préoccupations concernant les conséquences géopolitiques de la complaisance technologique et critiquent notamment les grandes entreprises de technologie (principalement basées dans la Silicon Valley) pour leur développement de technologies de l’IA axée sur les gains à court terme plutôt que sur l’innovation à long terme.
Les auteurs affirment que ces entreprises accordent la priorité à des applications futiles, comme les algorithmes des médias sociaux et les plateformes de commerce électronique, qui détournent l’attention des défis sociétaux essentiels, au lieu de s’harmoniser avec les intérêts humains nationaux ou mondiaux.
D’un point de vue juridique canadien, cet enjeu est à la fois fascinant et stimulant. Étant donné l’évolution rapide des relations commerciales internationales, quel rôle central le Canada, et notamment ses entreprises innovantes, ses institutions, ses universités et ses groupes renommés, jouera-t-il dans le façonnement de notre avenir? Peut-il prendre la place qui lui revient et prendre une position de tête dans la marche incessante (et rapide) des progrès en IA?
Dans ce contexte, la réglementation de l’IA d’un point de vue national est-elle la voie stratégique et logique à suivre, et si oui de quelle façon et dans quelle mesure? Un excès de réglementation pourrait-il étouffer les entreprises canadiennes et les entrepreneurs, compromettant ainsi nos chances dans la course à l’IA, une course aux enjeux considérables?
Le grand patron de Google Deepmind, Demis Hassabis, précisait récemment qu’une meilleure coopération sur la scène internationale serait requise pour réglementer l’IA, bien qu’une telle idée soit difficile à concrétiser en raison du contexte géopolitique actuel.
Évidemment, la concurrence sur l’échiquier mondial pour tirer notre épingle du jeu en matière d’IA est vive et, comme dans tous les domaines ou toutes les révolutions industrielles où le potentiel de développement économique et social est prodigieux, le degré de réglementation et d’encadrement peut faire en sorte que certains pays et certaines entreprises prennent les devants (parfois au détriment de l’environnement ou des droits de la personne). La réflexion sur le sujet, aussi nécessaire soit-elle, ne doit pas entraîner l’inaction. Mais, à l’opposé, la proactivité à l’égard de l’intelligence artificielle ne doit pas entraîner pour autant la négligence ou l’insouciance.
Nous évoluons dans un monde concurrentiel où les règles d’engagement sont loin d’être universelles. Même lorsque nous sommes animés par les meilleures intentions du monde, nous pouvons involontairement adopter des solutions technologiques qui entrent en conflit avec nos valeurs fondamentales et nos intérêts à long terme.
Une fois que ces solutions se sont imposées, il devient difficile de s’en défaire. Récemment, plusieurs applications ont attiré l’attention en raison de leurs pratiques de collecte de données et de leurs liens potentiels avec des entités externes, illustrant la rapidité avec laquelle des plateformes populaires peuvent devenir le sujet de débats nationaux sur les valeurs, la gouvernance et la sécurité. Même lorsqu’il a été démontré que ces plateformes ont des liens avec des entités étrangères ou hostiles, elles sont difficiles à déloger.
En mai 2025, après des mois passés à poursuivre un plan de transformation en entreprise à but lucratif, il a été décidé qu’OpenAI, Inc. demeurerait sous le contrôle d’une organisation à but non lucratif. La société, dont le siège social se trouve en Californie, a pour objectif de développer une intelligence artificielle générale (« IAG ») sûre et avantageuse, qu’OpenAI, Inc. définit comme « un ensemble de systèmes hautement autonomes qui surpassent les humains dans la plupart des tâches économiquement utiles ». Cette décision découle d’une série de critiques et de recours juridiques accusant l’entreprise de s’être éloignée de sa mission initiale, à savoir le développement de l’IA au profit de l’humanité.
Au Canada, le projet de loi C-27, connu sous le nom de Loi de 2022 sur la mise en œuvre de la Charte du numérique, visait à moderniser les lois fédérales sur la protection de la vie privée et à réglementer l’intelligence artificielle. Il comprenait trois volets principaux, dont la Loi sur l’intelligence artificielle et les données (« LIAD »), destinée à réglementer la conception et le déploiement de systèmes d’IA à grand impact. La LIAD aurait exigé des organisations la mise en œuvre de mesures pour cerner, évaluer et atténuer les risques associés à l’IA, dont les dommages et les distorsions éventuels.
Elle prévoyait également la création d’un poste de Commissaire à l’IA et aux données, responsable de veiller à l’application de la loi, ainsi que des sanctions pénales en cas d’utilisation abusive des technologies de l’IA. En outre, la LIAD aurait établi des interdictions relatives à la possession ou à l’utilisation de renseignements personnels obtenus illégalement pour concevoir, développer, utiliser ou mettre à disposition un système d’IA, ainsi que des interdictions contre la mise à disposition de systèmes d’IA dont l’utilisation cause un préjudice grave à des particuliers.
Or, le projet de loi C-27 est désormais mort au feuilleton et les intentions du gouvernement Carney en matière de réglementation de l’IA demeurent incertaines malgré la création d’un nouveau ministère de l’Intelligence artificielle. Dans l’intervalle, les lois fédérales canadiennes sur la protection de la vie privée et la réglementation sur l’IA demeurent inchangées, perpétuant le statu quo établi en vertu de la LPRPDE et des autres règles générales de droit civil et de common law, ainsi que de la Charte canadienne des droits et libertés.
Ce résultat entraîne des conséquences sur l’harmonisation du Canada avec les normes internationales en matière de protection de la vie privée et sur son approche de la gouvernance de l’IA. Plusieurs parties prenantes ont exprimé leur inquiétude quant au caractère inadéquat des lois existantes pour relever les défis numériques contemporains et aux répercussions éventuelles sur la position mondiale du Canada en matière de protection des données et d’innovation dans le domaine de l’IA .
Dans le contexte international actuel, marqué par des confrontations économiques et des confrontations armées, les développements en matière d’intelligence artificielle seront exponentiels dans des domaines tels que l’industrie militaire, la finance, l’aérospatial, les soins de la santé, l’utilisation et l’extraction des ressources naturelles et des métaux rares et, bien sûr, le droit et la justice.
Alors, maintenant que nous sommes à la croisée des chemins, quelle direction devons-nous prendre avec l’IA? Nous avons le choix de décider pour nous-mêmes, en orchestrant stratégiquement notre R&D, nos investissements et les efforts de développements de nos entreprises ou de laisser les progrès technologiques, en grande partie réalisés à l’étranger, tracer notre voie.
À propos des auteurs
Jean-Sébastien Desroches œuvre en droit des affaires chez Lavery, principalement dans le domaine des fusions et acquisitions, des infrastructures, des énergies renouvelables et du développement de projets, ainsi que des partenariats stratégiques.
Benoit Yelle est un agent de brevets agréé au Canada et aux États-Unis, et un associé au sein du groupe de propriété intellectuelle de Lavery.