Quels principes d'explicabilité et de transparence un employeur devrait-il prendre en compte lors de l'utilisation d'entretiens vidéo et d'outils d'embauche automatisés similaires ?

Incités par l’adoption et l’utilisation généralisées des logiciels de vidéoconférence à la suite de la pandémie de COVID-19, de nombreux employeurs se sont tournés vers les entretiens vidéo pour évaluer les embauches potentielles. Même si les employeurs ont commencé à exiger la présence au bureau, l’utilisation généralisée des entretiens vidéo s’est poursuivie, car il s’agit d’un moyen pratique et efficace d’évaluer les candidats. Certains des outils d’entretien vidéo utilisés par les employeurs intègrent l’utilisation de l’intelligence artificielle (IA) dans le but de maximiser l’efficacité du processus d’entretien. Souvent, les employeurs passent des contrats avec des fournisseurs tiers pour fournir ces outils d’entretien basés sur l’IA, ainsi que d’autres procédures de sélection améliorées par la technologie.

Bien que ces outils d’entretien vidéo alimentés par l’IA offrent la promesse d’optimiser les efforts de recrutement et de sélection, ces produits peuvent soulever une foule de problèmes juridiques, notamment des questions sur les préjugés cachés, l’impact disparate, la discrimination liée au handicap et la confidentialité des données. Bien qu’aucune loi fédérale ne réglemente expressément l’utilisation de l’IA dans les décisions d’emploi, lors d’un événement récent intitulé “Initiative of AI and Algorithmic Fairness: Disability-Focused Listening Session”, la présidente de la US Equal Employment Opportunity Commission, Charlotte Burrows, a exprimé ses inquiétudes concernant l’utilisation de l’entretien vidéo. La technologie de l’IA, notant, par exemple, qu’une telle technologie peut exclure de manière inappropriée les personnes ayant des troubles de la parole. Les mêmes préoccupations s’appliqueraient aux personnes ayant des handicaps visibles ou des handicaps qui affectent leurs mouvements. Peu de temps après, l’EEOC a publié des conseils techniques sur “La loi américaine sur les personnes handicapées et l’utilisation de logiciels, d’algorithmes et d’intelligence artificielle pour évaluer les candidats et les employés”. Les organes législatifs de l’Illinois, du Maryland et de New York ont ​​adopté une approche plus active, en adoptant des lois qui ont un impact direct sur l’utilisation des logiciels d’interview vidéo et de reconnaissance faciale alimentés par l’IA.

Utilisation du logiciel d’interview vidéo AI dans la pratique

Considérez l’exemple suivant :

Une entreprise technologique avec des bureaux à travers le pays, y compris à New York et à Los Angeles, passe un contrat avec un fournisseur tiers pour aider à sélectionner les candidats potentiels à l’emploi. Dans le cadre du processus d’entretien, le fournisseur tiers utilise un logiciel propriétaire, commercialisé comme étant alimenté par l’intelligence artificielle, pour générer un score numérique basé sur la voix, les expressions faciales et les choix de mots du candidat. Au début de chaque entretien, un représentant du service des ressources humaines de l’entreprise technologique indique que l’entretien sera enregistré sur vidéo et analysé par un outil de décision d’emploi automatisé, et donne au candidat la possibilité de refuser d’utiliser ce logiciel. Le représentant des RH explique également que le logiciel est soumis à un audit rigoureux chaque année, dont les résultats sont publiés sur le site Web du fournisseur tiers.

Quels problèmes juridiques cela pourrait-il présenter ?

Les organes législatifs nationaux et locaux ont pris l’initiative d’imposer aux employeurs des exigences d’explicabilité et de transparence. Dans cet exemple, l’entreprise technologique doit tenir compte des lois et réglementations applicables aux employeurs de New York et de Los Angeles pour déterminer si elle a l’obligation d’informer les candidats de la nature de l’outil d’entretien vidéo alimenté par l’IA qui sera utilisé. L’entreprise doit également être consciente des lois en vigueur dans l’Illinois et le Maryland si elle embauche des candidats dans des emplacements situés dans l’un ou l’autre État.

La ville de New York. Le conseil municipal de New York a récemment adopté une loi locale régissant l’utilisation des outils automatisés de décision en matière d’emploi (AEDT), qui entrera en vigueur le 1er janvier 2023. Voir Administrateur de NYC. Titre du code 20, chap. 5, sous. Ch. 25, § 20-870. Entre autres choses, la loi AEDT de NYC interdit à un employeur d’utiliser un outil de décision d’emploi automatisé[1] pour présélectionner un candidat à l’emploi, à moins que l’outil n’ait fait l’objet d’un audit sur les préjugés au plus tard un an avant l’utilisation de l’outil, et qu’un résumé des résultats de l’audit sur les préjugés soit rendu public. De plus, les employeurs doivent fournir un avis au candidat, au moins dix jours ouvrables avant l’entretien, en divulguant les “qualifications et caractéristiques du poste que cet outil automatisé de décision d’emploi utilisera dans l’évaluation” du candidat, et en donnant au candidat l’opportunité pour demander une sélection ou un logement alternatif. Dans l’exemple ci-dessus, l’entreprise technologique n’a pas fourni la divulgation requise en vertu de la loi NYC AEDT.

Californie. Le Fair Employment & Housing Counsel de Californie a proposé un projet de réglementation applicable aux systèmes de décision automatisés, qui, dans sa forme actuelle, s’applique aux «algorithmes qui utilisent la reconnaissance faciale et/ou vocale pour analyser les expressions faciales, les choix de mots et les voix». Le projet de règlement intégrerait des systèmes de décision automatisés dans les réglementations existantes de la Californie régissant les pratiques d’embauche discriminatoires en vertu de la Fair Employment & Housing Act. Le projet de règlement rendrait illégal pour un employeur l’utilisation de systèmes de décision automatisés qui « filtrent ou tendent à filtrer un candidat » sur la base d’une caractéristique protégée à moins que les « critères de sélection… ne se révèlent liés à l’emploi pour le poste ». position et sont compatibles avec la nécessité de l’entreprise. Les réglementations sont actuellement dans la phase de pré-réglementation et le Département californien de l’emploi et du logement équitables n’a pas encore fixé de calendrier pour l’adoption du projet de réglementation. Cependant, le règlement, tel qu’il est rédigé, ne contient pas d’exigence expresse d’aviser les candidats de l’utilisation de l’IA ou d’expliquer le fonctionnement de l’IA.

Illinois. L’Illinois Artificial Intelligence Video Interview Act (AIVI Act) exige qu’un employeur fournisse un préavis et obtienne le consentement préalable du candidat, et exige également que l’employeur explique au candidat comment fonctionne l’IA et quels types généraux de caractéristiques il utilise pour évaluer les candidats. . Voir 820 ILCS 42.

Les employeurs de l’Illinois qui utilisent une technologie d’interview vidéo qui prend des scans du visage ou collectent d’autres données biométriques doivent également être conscients de la loi sur la confidentialité des informations biométriques (BIPA), qui oblige les employeurs à fournir un préavis et à obtenir le consentement avant de collecter des données biométriques, y compris le “scan de la main”. ou la géométrie du visage », et offre un droit d’action privé aux candidats. Voir 740 CITE 14.

Maryland. Laboratoire de code du Maryland au Maryland. & Empl. Le § 3-717 interdit aux employeurs d’utiliser la technologie de reconnaissance faciale lors des entretiens d’embauche préalables à l’embauche sans le consentement du candidat. Lors de l’utilisation de services de reconnaissance faciale lors d’entretiens avec des employés, un employeur du Maryland doit obtenir le consentement écrit du candidat et une renonciation indiquant le nom du candidat, la date de l’entretien, que le candidat consent à l’utilisation de la reconnaissance faciale pendant l’entretien et que le candidat a lu la renonciation.

Conseils techniques de l’EEOC. En plus des lois nationales et locales ci-dessus, les employeurs doivent tenir compte des directives récemment publiées par l’EEOC sur l’utilisation de logiciels, d’algorithmes et d’IA pour évaluer les candidats à un emploi et les employés. Les directives de l’EEOC contiennent une liste de « pratiques prometteuses » que les employeurs doivent prendre en compte, y compris les recommandations suivantes pour aborder l’explicabilité et la transparence en :

  • informer tous les candidats que des aménagements raisonnables sont disponibles pour les personnes handicapées et fournir des instructions claires et accessibles pour demander ces aménagements ; et

  • décrivant, dans un langage simple et dans des formats accessibles, les traits que l’outil technologique est conçu pour évaluer, la méthode par laquelle ces traits seront évalués et les variables ou facteurs qui peuvent affecter l’évaluation ou la notation.

A quoi les employeurs doivent-ils se préparer ?

Alors que de plus en plus d’employeurs utilisent des outils alimentés par l’IA, y compris des outils d’entretien vidéo, pour les aider dans leurs pratiques d’embauche, ils doivent s’attendre à une surveillance accrue dans ce domaine de la part des régulateurs et des législateurs fédéraux, étatiques et locaux. L’utilisation d’outils qui peuvent être expliqués aux candidats évalués et la transparence sur la manière dont les outils seront utilisés aideront non seulement les employeurs à se conformer aux lois et réglementations applicables, mais augmenteront également la crédibilité de l’employeur auprès des candidats et des régulateurs. À cette fin, les employeurs doivent exercer une diligence raisonnable sur l’entreprise de logiciels qui propose des outils alimentés par l’IA, se familiariser avec le logiciel et son fonctionnement, et rédiger avec soin des avis qui fourniront suffisamment d’informations aux candidats pour leur permettre de comprendre le processus d’évaluation.


NOTES DE BAS DE PAGE

[1] Le terme «outil automatisé de décision d’emploi» est défini comme incluant tout processus informatique, dérivé de l’apprentissage automatique, de la modélisation statistique, de l’analyse de données ou de l’intelligence artificielle, qui émet une sortie simplifiée, y compris un score, une classification ou une recommandation, qui est utilisé pour aider ou remplacer la prise de décision discrétionnaire pour prendre des décisions d’emploi qui ont un impact sur les personnes physiques

©2022 Epstein Becker & Green, PCTous droits réservés.Revue nationale de droit, volume XII, numéro 144