L’intelligence artificielle dans les processus d’embauche
Table des matières
Introduction
L’utilisation de l’intelligence artificielle (IA) durant le processus d’embauche peut donner lieu à de nombreuses possibilités pour les gestionnaires d’embauche et les candidats, mais elle soulève également des considérations importantes.
Ce guide a pour but d’aider les gestionnaires d’embauche à utiliser l’IA dans le processus d’embauche conformément au cadre établi par leur administrateur général, qui demeure responsable de l’ensemble des embauches au sein de leur organisation.
Ce guide fournit un contexte sur la façon dont les exigences du Cadre de nomination de la Commission de la fonction publique et d’autres instruments applicables, tels que la Directive sur la prise de décisions automatisée du Conseil du Trésor et le Guide sur l’utilisation de l’intelligence artificielle générative du Secrétariat du Conseil du Trésor (SCT) s’appliquent à l’utilisation de l’IA dans le processus d’embauche.
Utilisation de l’intelligence artificielle par les gestionnaires d’embauche dans le processus d’embauche
En tant que gestionnaire d’embauche, vous êtes responsable de toutes les décisions prises au cours d’un processus de nomination. Vous devez également veiller à ce que les pouvoirs de nomination et pouvoirs connexes subdélégués soient respectés.
Si vous décidez d’utiliser l’intelligence artificielle (IA) dans le processus d’embauche, n’oubliez pas que vous devez :
- comprendre les systèmes d’IA que vous comptez utiliser.
- être en mesure d’expliquer les décisions que vous avez prises tout au long du processus de nomination.
- plus particulièrement pour des discussions informelles ou à des fins de recours
- valider les idées et les suggestions générées par l’IA pour s’assurer que le contenu généré par l’IA est exact et pertinent.
- il s’agit notamment d’examiner et d’adapter les données de l’IA afin de refléter plus précisément les besoins en matière d’embauche et d’éliminer les préjugés et les obstacles ou d’en atténuer les effets
- vous assurer que les renseignements transmis en anglais et en français sont les mêmes tout au long du processus d’embauche compte tenu que les outils d’IA peuvent produire des erreurs de traduction.
- cela permettra de s’assurer que des candidats ne soient pas désavantagés en raison de leur première langue officielle ou de la langue officielle dans laquelle ils choisissent d’être évalués au cours du processus d’embauche
- être en conformité avec les exigences en matière de sécurité, de confidentialité, de protection des données et de propriété intellectuelle liées aux outils d’IA.
Établissement des qualifications
Icône d’une coche verte Vous pouvez utiliser l’IA pour contribuer à l’établissement des qualifications requises pour un poste.
Considérations
- Vous êtes responsable des qualifications établies et vous devez vous assurer qu’elles correspondent aux exigences du poste.
- Les outils d’IA peuvent :
- vous aider à réfléchir aux qualifications requises pour votre poste, et ainsi réduire le temps consacré à cette étape du processus;
- mal interpréter les exigences spécifiques de l’emploi;
- introduire ou créer des préjugés et obstacles qui pourraient désavantager les groupes en quête d’équité (par exemple, en exigeant des années consécutives d’expérience ou une expérience récente);
- ne pas tenir compte du contexte organisationnel.
Annonces d’emploi et communication avec les candidats
Icône d’une coche verte Vous pouvez recourir à l’IA pour élaborer des annonces d’emploi et des produits de communication destinés aux candidats (invitations à des examens et à des entrevues) et pour interagir avec des candidats de manière automatisée (robots conversationnels ou assistants virtuels).
Considérations
- Le recours à l’IA pour créer des invitations et des messages peut vous aider à gérer efficacement les communications avec les candidats tout en adaptant les messages au destinataire, permettant une expérience plus personnalisée, engageante et inclusive.
- Quel que soit l’outil d’IA que vous utilisez, vous êtes responsable de l’exactitude et de la qualité des communications.
- Vous devez indiquer aux candidats qu’ils interagissent avec un robot conversationnel ou un assistant virtuel.
- Il est possible que l’IA néglige des nuances contextuelles et culturelles.
- Envisagez d’utiliser un processus de revue collaboratif dans lequel participent des gestionnaires d’embauche et des spécialistes de la diversité et de l’inclusion.
- Cela facilite l’adaptation du contenu généré par l’IA et vous assure que les communications sont appropriées et adaptées aux nuances culturelles et contextuelles
- Envisagez d’utiliser un processus de revue collaboratif dans lequel participent des gestionnaires d’embauche et des spécialistes de la diversité et de l’inclusion.
Il est fortement recommandé d’indiquer dans l’annonce d’emploi si les candidats peuvent utiliser l’IA lorsqu’ils postulent à l’emploi (par exemple, pour répondre aux questions de présélection et rédiger une lettre de motivation). Ceci est particulièrement important si la communication écrite sera évaluée au cours de l’étape de la présélection.
Élaboration de matériel d’évaluation
Icône d’une coche verte Vous pouvez recourir à l’IA pour élaborer du matériel d’évaluation (par exemple, des questions d’entrevue ou des scénarios).
Important
Avant d’utiliser toute méthode d’évaluation, vous devez procéder à l’identification des préjugés et obstaclesFootnote 1 et à mettre en place des stratégies pour les éliminer ou atténuer leurs effets.
Considérations
- Le recours à l’IA peut réduire le temps nécessaire à l’élaboration du matériel d’évaluation.
- Il est de votre responsabilité d’utiliser des outils qui permettent une évaluation équitable et qui mesurent avec précision les qualifications du poste.
- Les candidats pourraient utiliser les outils d’IA pour anticiper des questions d’examen ou d’entrevue et préparer les réponses.
- Vous pouvez vérifier si les réponses attendues sont faciles à obtenir grâce à l’IA et apporter des ajustements au besoin.
Évaluer les candidats
Important
Avant d’utiliser toute méthode d’évaluation, vous devez procéder à l’identification des préjugés et obstacles et mettre en place des stratégies pour les éliminer ou atténuer leurs effets.
Avant l’évaluation, vous devez informer les candidats des méthodes ou outils qui seront utilisés et leur indiquer la possibilité de demander des mesures d’adaptation et du processus à suivre pour ce faire.
Icône d’une coche verte Vous pouvez recourir à l’IA pour administrer des évaluations (par exemple, des plateformes qui permettent la supervision à distance, des outils d’entrevue asynchrones).
Vous pouvez utiliser des outils d’IA pour évaluer les candidats (par exemple, classement ou tri automatisé des candidats lors de la présélection, ou notation automatisée des tests ou des entrevues) uniquement si vous pouvez expliquer clairement ce qui suit :
- Le rôle que l’outil d’IA a joué dans votre processus de décision
- Les critères, données ou mécanismes qui ont été utilisés par l’outil d’IA pour évaluer les réponses des candidats
- L’évaluation ou la rétroaction individuelle réalisée par l’outil d’IA pour chaque candidat
- La façon dont vous avez interprété et utilisé les renseignements générés par l’IA dans le contexte de vos décisions concernant les candidats.
Considérations
- Le recours aux outils d’IA pour évaluer les candidats présente un risque compte tenu que ces outils peuvent être complexes.
- Quel que soit l’outil d’IA utilisé, vous êtes responsable des décisions prises dans les processus d’embauche incluant la décision définitive au sujet des candidats.
- Vous devez documenter les renseignements requis conformément à l’Annexe B de la Politique de nomination.
- La transparence est essentielle lors du recours aux outils d’IA pour évaluer des candidats afin de renforcer leur confiance dans l’équité et l’intégrité du processus.
- Il est fortement recommandé qu’avant de procéder, les candidats soient informés de l’utilisation de tout outil d’IA pour l’évaluation.
- Les exigences de la Directive sur la prise de décisions automatisée du Conseil du Trésor s’appliquent.
- Cela inclut les exigences de l’Outil d’évaluation de l’incidence algorithmique du SCT, un outil obligatoire qui évalue les risques posés par les systèmes de décision automatisés afin de garantir que le recours à l’IA est éthique et transparent.
- Différentes exigences s’appliquent en fonction du niveau d’incidence déterminé
Icône d’un « x » rouge Utilisation inappropriée de l’IA pour évaluer des candidats
Exemple 1 : Un outil d’IA est utilisé pour classer et trier des candidatures en fonction des renseignements contenus dans les CV.
L’outil utilise des critères non transparents, comme des mots-clés spécifiques ou des modèles de données historiques biaisés.
Chaque candidat reçoit un score basé sur des paramètres non expliqués, ce qui rend difficile la compréhension de la notation.
Les recruteurs interprètent les scores sans comprendre les mécanismes sous-jacents, ce qui peut mener à des décisions biaisées ou injustes.
Exemple 2 : Un outil d’IA est utilisé pour mener des entrevues vidéo avec les candidats. L’IA analyse les réponses verbales, le langage non verbal et l’apparence physique des candidats pour attribuer des scores et fournir des recommandations aux gestionnaires d’embauche.
Les candidats et les gestionnaires d’embauche ne savent pas clairement quelles sont les répercussions de l’IA sur les décisions définitives. Les critères d’évaluation, les données utilisées (comme les expressions faciales ou le ton de la voix) et les mécanismes de l’IA ne sont pas transparents.
Les candidats reçoivent des notes ou des commentaires générés par l’IA, mais ces évaluations ne sont pas clairement expliquées. Par exemple, un candidat pourrait être informé qu’il a un score faible en communication sans savoir quels aspects spécifiques de son rendement ont conduit à ce résultat.
Les gestionnaires d’embauche utilisent les recommandations de l’IA pour prendre des décisions, mais ils ne comprennent pas toujours comment ces recommandations ont été formulées. Cela peut conduire à des décisions biaisées ou mal éclairées.
Utilisation de l’intelligence artificielle par les candidats dans le processus d’embauche
Icône d’une coche verte Vous pouvez permettre aux candidats d’utiliser l’intelligence artificielle (IA) tout au long du processus d’embauche.
L’utilisation de l’IA pourrait être pertinente si l’accès à ces outils fait partie de l’emploi. Permettre aux candidats d’utiliser des outils d’IA au cours du processus d’embauche peut :
- simuler un environnement de travail réaliste
- mieux refléter le contexte professionnel auquel ces outils sont intégrés
- vous permettre d’évaluer leur capacité à les utiliser efficacement
Que vous choisissiez d’autoriser ou d’interdire aux candidats d’utiliser l’IA, vous devriez :
- Élaborez la stratégie, les méthodes et les outils d’évaluation en prenant en compte que les candidats ont un accès facile à l’IA.
- Vous assurer de communiquer des règles claires aux candidats et de les informer des conséquences possibles en cas de non-respect de ces règles (par exemple, invalidation des résultats du test, élimination du processus d’embauche, possibilité d’une enquête, etc.)
- Demander aux candidats de confirmer par écrit qu’ils ont pris connaissance et qu’ils ont compris les règles et les conséquences
Permettre aux candidats d’utiliser l’IA
- Préciser les types de ressources et d’outils que les candidats sont autorisés à utiliser et à quelle(s) étape(s) du processus d’embauche ils peuvent les utiliser (par exemple, pour répondre à des questions de présélection, rédiger des lettres de motivation, effectuer des tests non supervisés).
- Plusieurs facteurs peuvent créer une inégalité d’accès aux outils d’IA lors du processus d’embauche : l’accès à des versions payantes, la langue de l’outil, les connaissances techniques des candidats et l’équipement informatique disponible.
- Indiquer clairement que les candidats doivent citer tout outil d’IA utilisé en identifiant le contenu généré par l’IA et sa source.
- Expliquer les exigences relatives au matériel protégé (préciser que les candidats ne sont pas autorisés à partager du matériel de test sécurisé ou à en soumettre le contenu à des outils d’IA non sécurisés).
Interdire aux candidats d’utiliser l’IA
- Lorsque des évaluations sont administrées dans un environnement non supervisé, le risque qu’un candidat ait recours à du matériel non autorisé, notamment des outils d’IA générative, est significativement accru.
- Envisagez la possibilité de supervision à distance (surveillance des évaluations en ligne par vidéo, audio et/ou partage d’écran pour garantir l’intégrité) afin d’encourager les candidats à utiliser leurs propres compétences et d’accroître l’équité.
- Envisagez la possibilité de recourir à une gamme de méthodes d’évaluation (telles que des entrevues structurées et des vérifications de références) et à différentes approches (par exemple, non supervisées suivies de supervisées) pour fournir un aperçu plus complet des qualifications des candidats, réduire la dépendance à l’égard de l’IA et minimiser les préjugés et les obstacles potentiels.
- L’utilisation d’outils qui visent à détecter si les candidats ont utilisé l’IA est déconseillée
- Ces outils ne sont pas fiables et leur utilisation constituerait une évaluation automatisée au sujet du candidat, laquelle serait assujettie aux exigences de la Directive sur la prise de décisions automatisée du Conseil du Trésor.
- Vous devrez expliquer au candidat les facteurs qui ont conduit à l’utilisation de l’outil pour déterminer si le contenu a été généré par l’IA.
- Un faux positif pourrait entraîner des conséquences graves pour le candidat, qui aurait peu de recours; il serait plus prudent de réévaluer le candidat
Exemple d’énoncé : Le recours à l’IA est interdit
Vous devez effectuer l’évaluation de manière indépendante, sans aide extérieure, y compris des ressources Internet non autorisées ou des outils d’intelligence artificielle (IA) (par exemple, Copilot, ChatGPT ou toute autre forme d’IA). Vous pourriez être invité à expliquer ou à détailler vos réponses lors d’une entrevue de suivi. Toute infraction pourrait faire l’objet d’une enquête et entraîner des conséquences sérieuses, incluant l’élimination de votre candidature.
* En soumettant cette évaluation, je reconnais avoir lu, compris et accepté les termes de confidentialité et d’intégrité ci-dessus. Je certifie que j’ai réalisé cette évaluation de manière indépendante, sans aide extérieure, et que je n’ai ni plagié ni utilisé l’IA. Je comprends les conséquences potentielles au sujet de ma candidature si je ne respecte pas ces exigences.
Exemple d’énoncé : Le recours à l’IA est autorisé
L’utilisation d’outils d’intelligence artificielle (IA) (par exemple, Copilot, ChatGPT ou toute autre forme d’intelligence artificielle) est autorisée. Toutefois, vous devez indiquer explicitement lorsque vous utilisez de tels outils dans vos réponses en indiquant le contenu généré par l’IA et sa source. Vous pourriez être invité à expliquer ou à détailler vos réponses lors d’une entrevue de suivi. Si vous ne divulguez pas votre utilisation d'outils d'IA ou si vous utilisez des outils d'IA de manière inappropriée, cela peut donner lieu à une enquête et à des conséquences graves, y compris l’élimination de votre candidature.
* En soumettant cette évaluation, je reconnais avoir lu, compris et accepté les termes d’intégrité ci-dessus. Je certifie avoir indiqué clairement toute utilisation d’intelligence artificielle, en précisant les sources et le contenu utilisé. Je comprends les conséquences potentielles sur ma candidature si je ne respecte pas ces exigences.
Principaux points à retenir
- L’IA peut rendre le processus d’embauche plus efficace et plus efficient
- Les outils d’IA peuvent représenter des ressources utiles, mais doivent être utilisés avec prudence et diligence.
- Leurs fonctionnalités et capacités varient
- Le choix d’outil a une incidence sur la validité et la précision des résultats
- Le recours aux outils d’IA pour évaluer les candidats présente un risque compte tenu que ces outils peuvent être complexes; ne les utilisez que si vous pouvez expliquer clairement vos décisions.
- Si vous décidez d’évaluer les candidats au moyen de l’IA, vous devez respecter les exigences de la Directive sur la prise de décisions automatisée du Conseil du Trésor.
- La transparence est essentielle lors du recours aux outils d’IA pour évaluer des candidats afin de renforcer leur confiance dans l’équité et l’intégrité du processus.
- Il est fortement recommandé qu’avant de procéder, les candidats soient informés de l’utilisation de tout outil d’IA pour l’évaluation.
- Avant d’utiliser toute méthode d’évaluation, vous devez procéder à l’identification des préjugés et obstacles et mettre en place des stratégies pour les éliminer ou atténuer leurs effets.
- Que vous décidiez ou non de permettre aux candidats d’utiliser l’IA, veillez à leur donner des règles claires et à leur indiquer les conséquences possibles s’ils ne respectent pas ces règles.
- Par exemple, l’invalidation des résultats des tests, l’élimination du processus d’embauche, la possibilité d’une enquête
- Vous pouvez également leur demander de confirmer par écrit qu’ils ont pris connaissance et qu’ils ont compris les règles et les conséquences
Ce guide est évolutif et sera mis à jour pour répondre aux changements dans l’environnement de l’IA, qui évolue rapidement, et à mesure que de nouveaux outils seront élaborés et utilisés dans le processus d’embauche.
Questions fréquemment posées
Comment savoir si des candidats ont recouru à l’IA alors que ce n’était pas autorisé?
Soyez à l’affût d’indicateurs (et non de preuves) d’utilisation de l’IA, par exemple:
- certaines réponses sont rédigées à un niveau ou dans un style très différent des autres réponses
- les réponses sont génériques, n’abordent pas directement le sujet ou n’ont pas de sens dans le cadre du scénario.
- la réponse renferme de fausses références ou de fausses études
- des réponses qui décrivent l’expérience de travail du candidat ne concordent pas avec son parcours d’emploi
- une réponse est rédigée à la troisième personne (lorsque le candidat doit décrire son expérience)
- lors de vidéos préenregistrées, le candidat semble lire un texte
- les réponses suivent le modèle de réponse typique des logiciels d’IA
Que faire si une utilisation non autorisée est décelée?
Des préoccupations selon lesquelles un candidat a triché ou ne s’est pas conformé aux instructions de l’évaluation peuvent faire l’objet d’une enquête pour conduite irrégulière.
Si cela est détecté en cours de processus (avant une nomination), il est possible de remédier à l’irrégularité de manière informelle, sans mener d’enquête (par exemple, en éliminant ou réévaluant le candidat, au cas par cas.
La Commission de la fonction publique peut choisir d’examiner certaines situations de conduite irrégulière en tant que fraude. Si c’est le cas, vous pouvez tout de même remédier à l’irrégularité de façon informelle en tant que conduite irrégulière (il n’est pas nécessaire d’attendre l’issue de l’enquête pour fraude).
Quand ces situations peuvent-elles être soumises à la Commission de la fonction publique pour une enquête pour fraude?
Les situations peuvent être signalées à la Commission de la fonction publique pour une enquête pour fraude lorsque les instructions interdisent explicitement l’utilisation de l’IA et que vous avez des raisons de penser qu’elle a été utilisée.
Ressources supplémentaires
Soutien
Les gestionnaires d’embauche peuvent communiquer avec leurs services de ressources humaines pour discuter de la façon dont certaines questions sont traitées dans leur organisation.
La Commission de la fonction publique du Canada fournit du soutien par l’entremise des conseillers au soutien en dotation désignés pour chaque ministère et organisme.
Formation
L’École de la fonction publique du Canada propose une gamme de cours pour soutenir votre apprentissage sur l’intelligence artificielle. Explorez le catalogue d’apprentissage de l’école pour les cours, les événements, les programmes et autres outils d’apprentissage, ainsi que pour de plus amples renseignements sur leurs produits et services.
Liens utiles
- Directive sur la prise de décisions automatisée (Conseil du Trésor)
- Guide sur la portée de la Directive sur la prise de décisions automatisée (SCT)
- L’IA générative dans votre travail au quotidien (SCT)
- Utilisation responsable de l’intelligence artificielle au gouvernement (SCT)
- Guide sur l’utilisation de l’intelligence artificielle générative (SCT)
- L’avenir de l’IA générative
- Pratiques exemplaires pour les tests non supervisés
- Guides pour l’embauche dans la fonction publique
- Guide sur l’atténuation des préjugés et obstacles en matière d’évaluation (accessible uniquement sur le réseau du gouvernement du Canada)