une main qui tient une guitare

Perspectives

Quatre façons de contrer les préjugés pouvant découler des outils d’IA de votre partenaire RH

Les avis sont partagés quant à l’apport de l’intelligence artificielle à la gestion des ressources humaines; les organisations devraient être au fait des avantages et des inconvénients des outils d’IA utilisés pour le recrutement, tout particulièrement si leurs partenaires externes y font appel. Cet article résume la controverse associée à ces outils et les projets de loi en ébauche au pays, en plus de présenter aux organisations quatre pratiques optimales qui leur permettront d’éliminer les préjugés de leurs processus d’embauche et de veiller au respect des normes du travail et de la réglementation sur la protection de la vie privée.

Intelligence artificielle et recrutement : amis ou ennemis?

L’intelligence artificielle est au cœur de pratiquement tous les processus de recrutement de talents, du ciblage publicitaire et de l’évaluation de l’adéquation de candidatures jusqu’à l’analyse de l’information publique en ligne au sujet des personnes qui postulent et à l’analyse des compétences techniques et des habiletés de communication lors des entretiens.

Les défenseurs de l’IA voient les outils d’apprentissage automatique comme une bénédiction pour les services de ressources humaines qui manquent d’effectifs et qui cherchent des manières rapides et rentables de pallier le manque de personnel tout en traitant une marée de candidatures. Pour certains, l’IA pourrait même réduire les biais et permettre de respecter à la fois la loi et les objectifs internes liés à l’égalité au cours du processus d’embauche – après tout, les machines n’ont pas de préjugés, n’est-ce pas?

Le point de vue est tout autre pour les détracteurs de l’IA, qui citent en exemple un logiciel de recrutement retiré du marché en raison de ses algorithmes discriminatoires envers les femmes.

Selon eux, les problèmes sont dus au fait que les machines sont entraînées à déterminer les meilleures candidatures au moyen de données existantes qui, elles, introduisent des préjugés systémiques. Par exemple, un système d’évaluation de CV pourrait rechercher (ou exclure) un genre, des cheminements professionnels types, un domaine de formation et même un code postal, en fonction des caractéristiques des personnes qui occupent à ce moment le poste à pourvoir. On se trouve alors à reproduire encore et encore les mêmes biais et à écarter ce qui aurait pu être d’excellentes candidatures, simplement parce qu’elles ne rentrent pas dans le moule. Cette situation peut entraîner une atteinte aux droits de la personne ou des enjeux en matière d’équité salariale, même si la présence de ces préjugés était totalement involontaire.

Selon une récente étude de l’Université de Cambridge, une technologie qui repose sur l’analyse d’images et de vidéos pour évaluer lors d’un entretien la compatibilité d’une personne avec l’entreprise, son intelligence émotionnelle et sa capacité pour la résolution de problèmes est encore plus problématique. L’une des chercheuses de l’étude affirme qu’une telle technologie n’est fondée sur aucune donnée scientifique, la décrivant comme rien de plus qu’une « forme moderne de phrénologie ».

Étant donnée la réglementation sur la protection des droits de la personne, les entreprises ne peuvent pas simplement blâmer « l’algorithme » pour leurs pratiques d’embauche discriminatoires; elles doivent user de prudence si elles confient les yeux fermés des tâches à des logiciels.

Existe-t-il des lois visant les outils de recrutement fondés sur l’IA?

Actuellement au pays, aucune loi provinciale ou fédérale ne régit le développement et l’utilisation d’outils d’intelligence artificielle par le secteur privé; seules la collecte, l’utilisation et la divulgation de renseignements personnels identifiables (comme le genre, l’origine ethnique et le niveau de scolarisation) par les employeurs sont réglementées. La Loi sur l’intelligence artificielle et les données, qui serait édictée advenant l’adoption du projet de loi C-27 déposé en juin 2022 par le gouvernement fédéral, changerait toutefois les choses; destinée à protéger les individus (entre autres de possibles pertes pécuniaires) et à atténuer les risques de résultats biaisés liés aux systèmes d’apprentissage automatique, elle aurait d’importantes répercussions sur les entreprises.

Cette proposition s’inspire de la Directive sur la prise de décisions automatisée du Secrétariat du Conseil du Trésor du Canada autant que du cadre juridique proposé par l’UE, en insistant cependant sur les systèmes à incidence élevée. La définition d’incidence élevée sera bien entendu précisée par la loi, mais on peut s’attendre à ce qu’elle englobe les systèmes d’IA pouvant avoir des conséquences importantes sur le bien-être, la sécurité d’emploi et la stabilité financière. Ceci inclut très certainement les outils de recrutement, vu l’incidence qu’ils pourraient avoir sur des personnes qui seraient victimes de discrimination ou qui seraient écartées d’un processus d’embauche en raison d’algorithmes aux résultats biaisés.

Au Québec, l’adoption du projet de loi 64 a fait évoluer la réglementation sur la protection des renseignements personnels. Dès septembre 2023, les organisations devront divulguer leur utilisation d’un système décisionnel entièrement automatisé de traitement des renseignements personnels. Elles devront aussi être en mesure d’indiquer les renseignements personnels utilisés par le système décisionnel automatisé ainsi que les facteurs, paramètres et motifs qui auront mené à sa décision; elles pourraient aussi devoir effectuer une évaluation des facteurs relatifs à la vie privée avant d’employer un tel système automatisé.

Quatre pratiques optimales à adopter si votre recruteur utilise des outils d’IA

Si votre organisation confie la sélection et l’évaluation de candidatures à une agence de recrutement, il se pourrait que vous ne sachiez pas quels outils d’IA cette dernière utilise. Vous devrez donc procéder à des contrôles diligents pour éviter de possibles résultats biaisés et vous conformer à la réglementation. Nous vous recommandons par conséquent de suivre les quatre pratiques optimales suivantes.

1. Interrogez votre agence de recrutement au sujet de ses outils d’IA

Pour que la conversation soit fructueuse, il faut choisir les bons interlocuteurs : dites à l’agence que vous aimeriez discuter avec le/la scientifique de données responsable du logiciel utilisé, la personne spécialisée en développement qui supervise le projet ainsi qu’avec le contact de l’agence chez l’entreprise fournissant le logiciel, et faites-vous accompagner d’un ou d’une de vos collègues des TI ou de l’équipe de développement logiciel qui pourra discuter des aspects techniques de l’IA – et vous les traduire en termes clairs. Adjoignez-vous aussi quelqu’un qui connaît bien les enjeux liés aux préjugés systémiques, comme votre chef·fe de la gestion des talents ou la personne chargée des questions d’équité, de diversité et d’inclusion. La présence de votre propre scientifique de données vous sera d’une grande aide. Si vous n’en avez pas, François Joli-Coeur pourra vous conseiller un consultant ou une consultante qui connaît bien les logiciels d’AI et les préjugés qui s’y rattachent.

Lors de votre conversation, concentrez-vous sur les trois sujets suivants.

  • Développement logiciel. L’équipe de développement logiciel est-elle diversifiée? Le logiciel met-il l’accent sur les compétences plutôt que sur les données démographiques? Supprime-t-il de la base de données le genre, le nom, la photo et l’adresse qui figurent dans les candidatures, données qui peuvent entraîner des résultats biaisés? L’ensemble de données dont apprend le logiciel est-il vaste et diversifié? Le contrat de prestation de services conclu avec le fournisseur du logiciel d’IA aborde-t-il la question de l’équité du logiciel? Vous devriez pouvoir répondre par l’affirmative à toutes ces questions.
  • Supervision humaine. Bien que certains fournisseurs de logiciels prétendent que les algorithmes augmentent la diversité des candidatures, le regard humain peut demeurer nécessaire pour détecter des résultats biaisés. L’agence de recrutement vérifie-t-elle ses outils pour y déceler les préjugés? Les personnes responsables d’examiner les outils sont-elles formées pour repérer les résultats biaisés ou discriminatoires ou encore les pratiques inéquitables qui peuvent constituer une violation des droits de la personne applicables ou un risque pour leur entreprise? Si l’on détecte de tels résultats, apprend-on au logiciel à s’adapter pour les neutraliser?
  • Examen externe. Le système a-t-il été examiné par une tierce partie pour déterminer s’il a été conçu de manière responsable? Bien qu’il n’existe présentement pas de normes ou de certifications internationales en matière d’IA, des entreprises se spécialisent dans l’évaluation de ces outils sur les plans de l’éthique et des droits de la personne. Les organisations doivent s’assurer de prendre en compte les risques liés à l’emploi, à l’immigration, à l’équité salariale et aux droits de la personne puisque les outils en question servent à présenter des offres d’emploi à des candidats et candidates, ou à écarter des personnes du processus. 

2. Scrutez votre contrat à la loupe

Généralement, les fournisseurs de services en ressources humaines n’envoient à leurs clients que les candidatures jugées adéquates par leur logiciel d’IA. Vous pouvez toutefois négocier votre contrat pour que vous soient également envoyées les candidatures rejetées, afin de les faire examiner par votre équipe des RH – y compris votre comité sur l’équité, la diversité et l’inclusion – et ainsi procéder à vos propres contrôles diligents pour détecter tout résultat biaisé.

L’apprentissage automatique se fait par l’apport en données; une façon d’éviter les résultats biaisés est donc de miser sur de vastes ensembles de données. Par conséquent, les fournisseurs de services incluent souvent une clause d’anonymisation des renseignements contenus dans les candidatures pour que les fabricants de logiciels puissent utiliser ces renseignements afin de perfectionner les algorithmes d’IA des outils de recrutement. Cette situation soulève toutefois des questions de protection de la vie privée; vous voudrez donc peut-être retirer ce type de clause de votre contrat.

3. Veillez à vous conformer à la réglementation relative à la protection de la vie privée

Bien que le Canada ne se soit pas encore doté de lois régissant le développement et l’utilisation de l’IA, les commissaires à la protection de la vie privée peuvent appliquer au domaine de l’IA certains points de la réglementation visant la protection de la vie privée. Selon cette dernière, les organisations du secteur privé sont généralement tenues à ce qui suit :

  • Utiliser les renseignements personnels uniquement aux fins pour lesquelles ils ont été collectés, à moins d’autorisation contraire.
  • Mettre en place des mesures de sécurité.
  • Faire preuve de transparence quant à l’utilisation de renseignements personnels pour alimenter les algorithmes.
  • Pouvoir expliquer comment elles parviennent à éviter les résultats biaisés ou discriminatoires lorsqu’elles appliquent l’IA au traitement des renseignements personnels.

Nous vous recommandons d’aviser vos candidats et candidates que votre processus d’embauche comprend des outils d’intelligence artificielle et que leurs renseignements personnels pourraient être anonymisés et transmis à un fabricant de logiciels à des fins d’apprentissage automatique par des outils d’IA. Vous devriez être en mesure de répondre aux questions qu’ils pourraient avoir au sujet de l’utilisation que fait l’agence de recrutement de ses outils d’IA.

4. Dotez-vous d’un outil d’évaluation de l’incidence algorithmique

Les grandes organisations qui cherchent des personnes chevronnées pour pourvoir des postes dans de hautes sphères dont le fournisseur de services RH utilise des technologies d’IA devraient envisager de créer leur propre outil d’évaluation de l’incidence algorithmique, soit un outil qui a essentiellement pour but de les aider à comprendre et à gérer les risques liés à l’IA. Le questionnaire créé par le gouvernement fédéral à cette fin est d’ailleurs mis à la disposition de tous.

Si vous choisissez d’employer un tel outil, nous pourrons vous expliquer comment procéder, vous éclairer quant aux critères d’évaluation, aux possibles répercussions et aux mesures d’atténuation à envisager, et vous mettre en communication avec des spécialistes techniques capables de vous aider à intégrer les résultats de l’évaluation.

Prochaines étapes

En résumé, les outils d’IA pour le recrutement sont tout simplement des ordinateurs qui compilent des chiffres. Les personnes qui les créent – et celles qui les utilisent – doivent rester conscientes des risques de résultats biaisés qu’ils comportent et prendre les mesures nécessaires pour les contrer.

Si vous souhaitez discuter de l’utilisation de l’IA pour ce qui touche vos processus de recrutement, particulièrement au vu de la réglementation à venir, veuillez communiquer avec l’une des personnes-ressources ci-dessous.

Elles pourront vous aider à préparer votre conversation avec votre agence de recrutement, à formuler des passages de votre contrat, à vous conformer à la loi en matière de protection de la vie privée et à saisir les avantages et les inconvénients qu’il y a à bâtir votre propre outil d’évaluation de l’incidence algorithmique fondé sur celui du Secrétariat du Conseil du Trésor du Canada. Elles vous conseilleront ensuite sur les prochaines étapes à suivre en fonction des décisions de recrutement que vous aurez prises, notamment pour ce qui est des offres d’emploi, de la collecte de renseignements personnels au sujet du personnel et de la gestion du lien d’emploi.

Au bout du compte, vous aurez fait le nécessaire pour vous assurer que les outils d’IA utilisés par votre agence de recrutement ne véhiculent pas de préjugés pouvant teinter vos démarches d’embauche, et que votre organisation soit conforme à la réglementation existante et future.

Principaux contact