Protection des données et IA

L'IA est considérée comme une technologie clé pour l'avenir, elle permet de prendre des décisions automatisées à partir de données. La façon dont les données sont collectées, utilisées et structurées pour arriver à ces décisions est tout sauf neutre et a de nombreuses implications juridiques. Un exemple de RH.

Texte: Maya Dougoud, publié le 04.05.2021

Les nouvelles applications rendues possibles par les méthodes de l’intelligence artificielle (IA) comptent actuellement parmi les développements les plus prometteurs de la numérisation. Ce haut potentiel de transformation, repose sur la collecte et la gestion d’une multitude de données.  Au vu de la place centrale des données, l’IA fait émerger des questions fondamentales, juridiques et éthiques et apporte son lot de challenges, d’où le lien entre ces technologies et la protection des données.

Pour les organisations face à la digitalisation, l’utilisation de l’IA est inévitable. L’IA est également un outil requis pour des décisions rapides, pertinentes, objectives, inclusives. Or, l’intégrité et le gage de qualité reposent sur la bonne gouvernance et la confiance.

Mais, considérant la mise en œuvre de l’IA, son large spectre d’intervention et les domaines concernés, mais également son architecture, trois composants ont été déclaré absolument nécessaires par le High-Level Expert Group on Arificial Intelligence pour une IA digne de confiance. En effet, l’IA en soi, doit être conforme à la loi, remplir les exigences éthiques et reposer sur une structure robuste

Parmi les ces exigences, considérant le fonctionnement de l’IA, le droit de la protection des données prend une envergure d’importance et les mesures techniques et organisationnelles une nouvelle dimension.

IA dans le monde du travail

L’IA est déjà très présente dans le monde du travail, tant dans le secteur privé que dans le secteur public. Lorsque l’IA est utilisée pour l’administration du travail et/ou du personnel, les enjeux sont également d’importance, bien que d’une visibilité plus latente. En effet, l’utilisation de la technologie IA pour le recrutement et la sélection des talents met les organisations privées et publiques, utilisant cette technologie, face à des responsabilités de la violation des droits fondamentaux considérant la présence de biais dans le code même de l’IA et dans les résultats de ses décisions. Parmi ces droits fondamentaux sont principalement concernées l’égalité, la non-discrimination et la protection de la vie privée.

IA pour le recrutement en Suisse

De nombreux employeurs suisses, pour des postes en Suisse, font appel à des sous-traitants étrangers gérants des formulaires en ligne pour la pré-sélection des candidat-e-s qui postulent. Ces formulaires qui annoncent une conformité et une objectivité à toute épreuve, qui miroitent des politiques inclusives du personnel, qui ne requièrent ni photo, ni indications personnelles, ni indications familiales, appliquent dans les faits des algorithmes inquisiteurs qui puisent des informations hautement sensibles, dans différentes sphères telles que p.ex dans les réseaux sociaux. Par cette machinerie d’IA, des données sont collectées, transférées, compilées, interprétées et utilisées pour la prise de décision quant à l’employabilité de la candidature. On site par exemple l’expérience professionnelle, les évaluations, les états médicaux, la situation familiale, le passif pénal, les origines ethniques, la religion, l’orientation sexuelle, le genre, les opinions politiques. Parmi ces données, pour lequelles le consentement clair, transparent et explicite manque, on observe des données strictement personnelles, confidentielles et hautement sensibles.

Diversité et inclusion

Considérant la présence des biais dans ces outils, les algorithmes bloqueront dans leurs filets, des talents, p.ex jeunes femmes de couleur qui seront présumées incompétentes et ne pourront décrocher un emploi à la hauteur de leurs compétences. L’outil paramétrera la postulante malgré une candidature déposée sans indication de l’âge, du genre, des origines sur la base des indications obtenues de manière automatisée par une recherche large dans l’environnement digital de la concernée. Le tout, de manière non autorisée et sans un consentement libre, éclairé et explicite.

Non seulement ce procédé porte atteinte aux droits les plus fondamentaux, mais aussi à la loi sur la protection des données, à ses principes de finalité, transparence, minimalisation, mais de plus repose sur l’absence d’un consentement explicite des postulant-e-s. La situation se cristalyse si l’on tient compte de la présence des biais et de la catégorisation des individus dans des groupes aux indicateurs discriminants (appartenance raciale, ethnique ou religieuse ou orientation sexuelle). En effet, alors, non seulement les droits fondamentaux et constitutionnels sont concernés, mais de plus les normes de droit pénal peuvent trouver application p.ex. art. 261bis CP.

Lors de l'utilisation d'une prise de décision automatisée dans les RH

Il est important dans un premier temps pour les RH de prendre connaissance et conscience des enjeux des outils tels que décrits. Il est important pour la prise de décision de disposer des informations complètes et transparentes, de lire les conditions générales et les descriptifs de fonctionnement des outils et de comprendre les enjeux pour procéder à une balance des intérêts en assumant les responsabilités de ses choix.

Dans le fonctionnement de l’IA, dans toutes les perspectives, l’humain intervient et ne peut se dédouaner de sa responsabilité.

Il est important de comprendre dans le fonctionnement des outils quels sont les biais, quelle est la part d’intervention humaine, quelles sont les mesures organisationnelles et techniques composant l’IA et quelles sont les mesures organisationnelles et techniques entourant l’utilisation de l’AI dans un environnement donné.

Aussi, les RH ont à charge de former et informer, sensibiliser et responsabiliser l’ensemble du personnel sur les risques de ces outils. En effet, dans le fonctionnement de l’IA, dans toutes les perspectives, l’humain intervient et ne peut se dédouaner de sa responsabilité.

Les questions éthiques

Selon une chronique des Nations Unies, il s’agit d’une question cruciale, à savoir quel type de société sera là demain. Selon cette même source,« l’IA est la nouvelle frontière de l’humanité. Une fois que celle-ci sera franchie, une nouvelle forme de civilisation humaine verra le jour. Le principe directeur de l’IA n’est pas de devenir autonome ni de remplacer l’intelligence humaine. »

Considérant ainsi les implications et enjeux, des valeurs importantes, telles que la garantie que les technologies d'IA sont soumises à la direction et au contrôle de l'homme, et le fait d'éviter la création ou le renforcement de préjugés injustes, ont été incluses dans les chartes éthiques de nombreuses organisations.

Concrètement, les RH doivent veiller à inclure la composante humaine, en les protégeant, respectant et soignant, dans les mesures techniques et organisationnelles dans la politique des ressources humaines, ce qui est exigé par le droit la protection des données, les principes des droits fondamentaux. Il est attendu des RH qu’ils adressent des initiatives de diversité et d’inclusion faisant face aux biais et aux discriminations, transformant l’organisation et la culture de l’entreprise. Pour les employeurs, le cumul des responsabilités privées, publiques, pénales est en jeu.

Les RH doivent assurer que la gestion du personnel soit développée selon une approche humaniste, fondée sur des valeurs et les droits de l’homme. Cette recommandation s'appuie sur les travaux réalisés dans ce domaine par le Conseil de l'Europe, ainsi que par d'autres organisations internationales. Elle est ancrée dans le cadre universel, contraignant et applicable existant fourni par le système international des droits de l'homme.

En résumé, l’Human Centric IA est une option. Elle nécessité de protéger les individus par l'éthique, la transparence, l'information et un recours effectif dans l'utilisation de l'IA reconnue par les acteurs européens et internationaux des droits de l'Homme.

Plus sur le thème discrimination et IA:

Fay Parris, Deborah Diallo, Monika Pfaffinger et moi avons tenu une conférence le 4 mai 2021 à ce sujet. Cette conférence est disponible sur le site de l'IAPP.

L'auteur
Maya   Dougoud

Maya Dougoud

Maya Dougoud exerce en qualité de conseillère juridique dans le milieu académique (HES-SO//FR et SWITCH). Elle appuie également la recherche en qualité de collaboratrice auprès de HumanTech Institut de la HEIA-FR et de professeure associée auprès de la Haute école de Gestion de Fribourg. Formée à l’Université de droit de Fribourg, elle a travaillé dans une étude d’avocat bilingue spécialisée dans le droit des affaires, puis au sein du Ministère Public. Elle s’engage également dans la société, par son association 38,5 ou par la présidence des Femmes juristes Suisse.

E-mail
Tags
Community
Autres articles