Lucia Flores Echaiz. Photo : Courtoisie
Lucia Flores Echaiz. Photo : Courtoisie
À la fin de son stage en janvier dernier au siège de l’UNESCO à Paris, la candidate à la maîtrise en droit Lucia Flores Echaiz a été sélectionnée dans l’équipe de rédaction d’un rapport spécial de l’UNESCO sur l’intelligence artificielle (IA).

« À l’UNESCO, c’est rare, c’est très très rare qu’on soit co-auteur d’une publication à la fin d’un stage! » se réjouit l’étudiante de 25 ans.

Le rapport Piloter l'IA et les TIC avancées pour les sociétés du savoir : une perspective ROAM évalue les effets positifs et négatifs de l’IA, qui « apporte des défis et des enjeux liés à la protection des droits et libertés », souligne Lucia.

Le rapport a été officiellement lancé la semaine dernière. Avant même sa sortie, le secrétaire général de l’ONU António Guterres l’a mentionné dans le rapport final d’un important panel sur la coopération digitale. Une grande fierté pour Lucia et son équipe!

« J’ai hâte de voir la suite, peut-être qu’il va être repris par d'autres organisations! » espère la candidate à la maîtrise.

Sexiste, l’intelligence artificielle?

La spécialité de Lucia Flores Echaiz : la discrimination en IA, dont elle a aussi fait le sujet de son mémoire. Ce qui l’intéresse particulièrement, c’est de savoir où en sont rendus le droit et le cadre juridique par rapport à l’IA... et la discrimination basée sur le sexe qu’elle cause.

Pensons à Siri et Alexa, les deux assistantes virtuelles. Si on leur a choisi un sexe féminin, ce n’est pas un hasard, explique Lucia.

« Ça perpétue les stéréotypes de genre : ce sont les femmes qui sont là pour assister aux tâches administratives, secrétariat, envoyer des courriels, faire des rappels », énumère-t-elle.

Ce n’est que la pointe de l’iceberg!

L’IA apprend par elle-même en se nourrissant des données qu’on lui offre. Si ces données sont biaisées, l’IA le sera aussi. Et on sait qu’il y a eu beaucoup (et encore beaucoup) de sexisme dans la société.

« Les données massives reflètent des inégalités historiques, explique Lucia. L’intelligence artificielle peut refléter ces biais-là et reproduire de la discrimination sans aucune mauvaise intention. »

L’étudiante donne l’exemple d’Amazon, qui a fait élaborer un algorithme pour proposer des offres d’emploi. Les programmeurs se sont bientôt rendu compte que leur IA rejetait les CV provenant de candidates féminines, sans qu’ils l’aient programmée ainsi.

« C’est juste que l’algorithme a appris que les personnes qui sont dans ces postes, ce sont des hommes. Donc, il a appris à discriminer! »

On serait normalement protégés au Québec contre cette discrimination liée à l’intelligence artificielle, de par la Charte qui prévoit le droit à l’égalité. Pas facile de trouver des preuves pour aller en cour, indique par contre Lucia Flores Echaiz. Aucun tribunal canadien ou québécois n’a d’ailleurs jamais rendu de décision par rapport à l’IA.

Par exemple, une recherche a démontré que la publicité ciblée gérée par l’IA proposait des emplois plus payants au hommes qu’aux femmes. « Ce genre de discrimination subtile, ça pose un problème parce que c’est difficilement justifiable d’aller en cour basé sur la publicité qu’on reçoit! » déplore la candidate à la maîtrise.

À la recherche d’un stage de Barreau!

Maintenant que l’aventure du rapport de l’UNESCO suit son court et qu’elle est de retour à Montréal, Lucia met la dernière main à son mémoire. Après le dépôt? Le stage du Barreau!

L’étudiante n’a toujours pas trouvé de stage, mais aimerait bien en dénicher un en droit criminel, en défense, ou encore en droit de l’immigration. On comprend, elle est elle-même originaire du Pérou et au Québec depuis ses 11 ans.

Des idées de stage pour elle, chers lecteurs?