Consultations sur la stratégie en matière d’IA pour la fonction publique fédérale : ce que nous avons entendu

Sur cette page

Message ministériel

En tant que présidente du Conseil du Trésor, l’une de mes responsabilités est d’orienter la transformation numérique du gouvernement vers des systèmes et services modernes et intégrés qui répondent aux besoins de la population canadienne au 21e siècle.

L’intelligence artificielle (IA) est l’une des avancées technologiques les plus transformatrices des récentes initiatives du gouvernement du Canada. Sa vaste application offre des possibilités d’innovation et d’efficacité pour ce qui est de la prestation de services dans l’ensemble de la fonction publique fédérale. Cependant, il faut imposer à l’IA les mêmes normes éthiques qui sous-tendent l’élaboration de politiques, d’orientations et de stratégies pour assurer son utilisation responsable.

Le présent rapport résume les points de vue recueillis auprès de la population canadienne en ce qui concerne l’élaboration de la première stratégie globale du Canada en matière d’IA pour la fonction publique fédérale.

De mai à octobre 2024, des spécialistes et des citoyens et citoyennes ont fait connaître leurs points de vue sur l’utilisation de l’IA au sein du gouvernement du Canada. Des représentants et représentantes d’instituts de recherche, du milieu universitaire, de l’industrie, de la société civile, des agents négociateurs et des organisations autochtones, ainsi que des membres du public, ont fourni des commentaires axés sur 4 grands thèmes décrits dans le rapport : une approche centrée sur la personne, collaborative, prête-à-l’emploi, et fiable. Par conséquent, plus de 300 observations et consultations façonneront l’élaboration d’une stratégie globale en matière d’IA.

Je tiens à remercier toutes les personnes qui ont participé aux consultations et échangé leurs idées. Votre participation est essentielle à l’élaboration d’une stratégie d’IA qui s’aligne sur les éléments démocratiques par le biais de consultations avec les citoyens et citoyennes. Ces commentaires contribueront à façonner non seulement l’utilisation de l’IA au sein du gouvernement du Canada, mais aussi l’avenir des gouvernements eux-mêmes.

J’aimerais également remercier l’ancienne présidente du Conseil du Trésor, l’honorable Anita Anand, pour son leadership et son travail visant à faire progresser le gouvernement numérique.

Les travaux sont en cours pour publier la stratégie du gouvernement du Canada en matière d’IA au printemps 2025. La stratégie fournira une feuille de route décrivant les pratiques exemplaires pour faciliter l’utilisation éthique, sécuritaire et réussie de l’IA.

La fonction publique fédérale peut tirer parti des outils et des ressources offerts par l’IA pour améliorer l’efficacité opérationnelle du gouvernement, accroître nos capacités en matière de science et de recherche, protéger nos intérêts et offrir des services numériques plus simples et plus rapides à la population et aux entreprises du Canada. Maintenant que le vaste processus de consultation est terminé et que tous les commentaires ont été pris en compte, le gouvernement est en mesure d’aller de l’avant avec une stratégie qui permettra de fournir à la population canadienne les services modernes qu’elle mérite.

Le document original est signé par :

L’honorable Ginette Petitpas Taylor, C. P., députée
Présidente du Conseil du Trésor

À propos du présent rapport

Le présent rapport fournit un résumé des commentaires recueillis dans le cadre des consultations en personne et en ligne qui ont eu lieu d’avril à octobre 2024.

Pour le présent rapport, nous avons utilisé Microsoft Copilot pour aider à compiler et à synthétiser les données des soumissions des consultations en ligne. Tous les identificateurs personnels, comme les noms de personnes ou les noms de sociétés, ont été supprimés avant leur utilisation. Il a également été utilisé pour aider à la rédaction et à l’édition des phrases du document, mais le contenu a été soigneusement examiné et vérifié par l'équipe travaillant à l'élaboration de la stratégie.

Contexte

Le 24 avril 2024, la présidente du Conseil du Trésor, Anita Anand, a annoncé le lancement d’une stratégie d’IA pour la fonction publique fédérale qui harmonisera et accélérera l’adoption responsable de l’IA dans l’ensemble du gouvernement.

Le 27 mai 2024, la présidente Anand a organisé une table ronde avec des personnes du milieu universitaire et des scientifiques des principaux établissements de recherche en IA, par exemple Amii, Mila, l’Institut Vecteur, CIFAR, et plusieurs universités, dont les universités Carleton, McGill, Concordia, Western et l’Université d’Ottawa.

Au cours de la table ronde, la présidente Anand a présenté sa vision de l’impact transformateur de l’IA sur la fonction publique et a défini trois objectifs principaux :

  • améliorer la prestation des services offerts à la population canadienne;
  • automatiser les tâches courantes pour accroître l’efficacité opérationnelle;
  • renforcer les capacités de recherche scientifique.

La présidente Anand a reconnu le potentiel de l’IA pour stimuler la productivité du gouvernement et rationaliser les interactions avec les Canadiens, mais elle a souligné la nécessité de l’adopter de façon éthique et responsable.

Elle a également insisté sur la nécessité d’élaborer une stratégie d’IA centrée sur la personne, transparente et sûre, en plus de souligner le rôle essentiel que jouent l’innovation et la collaboration dans la réussite de cette stratégie.

Depuis le mois de mai, Le Secrétariat du Conseil du Trésor du Canada (SCT) a mené de vastes consultations sur la stratégie, notamment avec le Commissariat à la protection de la vie privée du Canada, les agents négociateurs, des représentants du secteur canadien de l’IA, des organisations de la société civile, des organisations autochtones, ainsi que le Conseil de gouvernance numérique et ses organisations membres.

À la suite de ces consultations, le SCT a défini quatre piliers clés pour définir la stratégie:

  1. centrage sur la personne;
  2. collaboration;
  3. prêt-à-l’emploi;
  4. fiabilité.

En septembre et en octobre, le SCT a tenu des consultations publiques en ligne sur la consultation des Canadiens. Un groupe diversifié de Canadiens a répondu à l’appel, tant sur le plan professionnel que sur celui de l’identité personnelle (voir l’annexe).

Les personnes ont été invitées à formuler des commentaires sur les éléments suivants :

  • piliers proposés pour l’utilisation de l’IA par le Gouvernement du Canada (GC);
  • domaines prioritaires pour l’utilisation de l’IA par le GC;
  • domaines dans lesquels le GC ne devrait pas utiliser l’IA;
  • types d’IA que le GC ne devrait pas utiliser.

Introduction

Pour que le gouvernement fédéral soit en mesure de mettre en œuvre les technologies d’IA de manière à maximiser les avantages pour les Canadiens tout en maintenant des normes éthiques, il doit élaborer une stratégie d’IA qui vise à s’assurer que toutes ses utilisations de l’IA sont centrées sur l’humain, collaboratives, prêtes-à-l’emploi et fiables.

L’IA n’est pas qu’une simple avancée technologique. Il s’agit d’un outil qui permet :

  • de renforcer la capacité du gouvernement en matière de recherche scientifique;
  • de mieux protéger les intérêts du Canada;
  • d’améliorer la qualité des services fournis au public canadien.

Les consultations ont porté principalement sur les quatre piliers proposés de la stratégie en matière d’IA. Ces piliers offrent une certaine souplesse afin que le gouvernement fédéral puisse s’adapter à l’évolution des circonstances et des technologies et rester pertinent et réactif face aux nouvelles possibilités et aux nouveaux défis.

Commentaires sur les piliers proposés

1. Centrage sur la personne

Les Canadiens ont été claires : il faut accorder la priorité aux personnes dans toutes les utilisations de l’IA au sein du GC.

Pour les membres du public, l’IA devrait permettre de rationaliser la prestation de services, de réduire les temps d’attente et fournir systématiquement des renseignements plus précis. Par exemple, le GC pourrait utiliser des robots conversationnels alimentés par l’IA pour fournir une assistance immédiate et répondre aux questions courantes, ce qui pourrait rendre les services plus accessibles et plus conviviaux. Le GC devrait viser à gagner la confiance du public alors que le gouvernement adapte l’IA dans différents ministères.

Pour les fonctionnaires, l’IA devrait permettre d’automatiser les tâches courantes et, ainsi, de libérer les employés pour qu’elles puissent se concentrer sur des tâches plus complexes. Utilisée de cette manière, l’IA peut améliorer l’efficacité et accroître la satisfaction au travail.

Les personnes qui ont participé aux consultations ont fait part de leurs préoccupations concernant la formation et l’accessibilité. Bon nombre d’entre elles ont souligné la nécessité de mettre en place des programmes de recyclage professionnel complets afin d’aider les fonctionnaires à s’adapter à l’évolution de leur rôle dû à l’IA. Bon nombre d’entre elles ont insisté sur le fait que les systèmes d’IA doivent être inclusifs et répondre aux besoins de l’ensemble du public canadien, y compris les groupes marginalisés et vulnérables. L’IA ne devait pas créer d’obstacles à l’accès, comme la création d’un plus grand fossé numérique. Au contraire, il doit améliorer l’accessibilité pour tous.

2. Collaboration

La collaboration peut comprendre le partage des meilleures pratiques, la mise en commun des ressources, des données, de l’expertise et même de la puissance de calcul.

La collaboration, tant au sein du gouvernement fédéral qu’avec des partenaires externes, s’avérera fondamentale dans la prise des décisions relatives à l’adoption de l’IA au sein du GC. Elle permettra de prévenir la duplication des investissements, de favoriser l’innovation et de normaliser les ensembles de règles en matière d’IA afin d’assurer un fonctionnement transparent entre les institutions fédérales et avec les provinces et territoires.

Enfin, l’adoption accrue de l’IA et une stratégie d’IA robuste peuvent jouer un rôle crucial dans la collaboration sur les défis mondiaux tels que le changement climatique, les pandémies et les menaces de cybersécurité en analysant les données, en prédisant les tendances et en coordonnant les réponses.

Les personnes qui ont participé aux consultations ont insisté sur la nécessité pour le GC de travailler avec diverses parties, lors de l’adoption de l’IA, notamment les collectivités autochtones, les groupes en quête d’équité, le milieu universitaire et l’industrie.

La collaboration internationale revêt aussi une grande importance. L’alignement des politiques d’IA sur les efforts internationaux visant à se rallier à une approche commune fera en sorte que le Canada demeure un chef de file sur la scène mondiale de l’IA.

3. Prêt-à-l’emploi

Le prêt-à-l’emploi c’est disposer de l’infrastructure, des outils et des politiques nécessaires pour adopter l’IA en toute sécurité. La mise en place de mesures de soutien adéquates permettra non seulement à la fonction publique fédérale d’adopter l’IA aujourd’hui, mais aussi d’assurer son succès à long terme.

Les personnes qui ont participé aux consultations ont souligné la nécessité de disposer de systèmes d’IA évolutifs et sécurisés, et de mettre en place une formation continue et d’un perfectionnement des compétences utiles afin que les fonctionnaires disposent des compétences nécessaires pour utiliser efficacement les technologies de l’IA.

Le rôle fondamental des données dans les solutions d’IA a également été mis en évidence. Il a été souligné à plusieurs reprises que des données fiables, telles que celles trouvées sur le portail du gouvernement ouvert ou celles fournies par Statistique Canada, constituent l’épine dorsale des initiatives réussies en matière d’IA au sein du gouvernement. Des investissements continus dans des cadres de gouvernance des données garantissent que les données seront exactes, complètes et pertinentes pour les applications d’IA.

Une infrastructure informatique solide, y compris l’informatique en nuage et les capacités de calcul à haute performance, est également essentielle au déploiement de l’IA.

Les personnes qui ont participé aux consultations ont également proposé que le GC développe des capacités d’IA en interne afin de mieux gérer l’infrastructure et de réduire la dépendance à l’égard des prestataires de services externes.

4. Fiabilité

La fiabilité est essentielle à l’adoption réussie de l’IA au sein du GC. En tant que piliers de la confiance du public, les fonctionnaires doivent utiliser l’IA de manière à favoriser cette confiance et à s’en inspirer.

Les personnes participantes ont souligné l’importance de la transparence et de la responsabilisation et de la compréhension des biais dans les modèles d’IA. Il est essentiel de s’attaquer aux préjugés dans les modèles d’IA pour prévenir la discrimination et assurer l’équité dans les décisions fondées sur l’IA. Il s’agit d’un élément clé pour la fonction publique, car nous incluons l’IA pour offrir des programmes et des services gouvernementaux représentatifs et inclusifs à tous les Canadiens.

Pour renforcer la confiance du public, le gouvernement doit communiquer clairement la façon dont il utilise l’IA et dans quelles circonstances il l’utilise. Par exemple, il doit étiqueter le contenu soutenu par l’IA et fournir des explications et des recours lorsque l’IA est impliquée dans la prise de décision.

Il est essentiel d’identifier les responsables des décisions liées à l’IA et des conséquences de celles-ci pour assurer la responsabilisation et résoudre les problèmes qui se posent.

La protection de la vie privée et la sécurité sont primordiales, et le GC doit mettre fortement l’accent sur les exigences visant à protéger les données de nature délicate et à maintenir la confiance du public.

Possibilités d’utilisation de l’IA au sein du gouvernement

Nous avons demandé aux personnes qui ont participé aux consultations de nous dire dans quelles circonstances, selon elles, le gouvernement fédéral pourrait se servir de l’IA. Les réponses les plus courantes sont indiquées ci-dessous.

  1. Efficacité administrative : l’IA pourrait permettre d’automatiser la création, le tri et la gestion des documents, ce qui réduirait le temps consacré aux tâches administratives. Elle pourrait également aider à gérer les boîtes de réception des groupes en triant les courriels, en supprimant ceux qui sont inutiles et en rédigeant des réponses aux demandes courantes.
  2. Prestation de services au public : les robots conversationnels alimentés par l’IA pourraient gérer les demandes de renseignements courantes des membres du public, c’est-à-dire fournir rapidement et avec exactitude des informations, ce qui permettrait de libérer les fonctionnaires pour répondre à des questions plus complexes. Le gouvernement pourrait également utiliser l’IA pour assurer une traduction rapide et exacte d’une grande quantité de textes, ce qui lui permettrait de veiller à ce que ses communications soient disponibles dans les deux langues officielles.
  3. Analyse des données et aide à la prise de décision : l’IA pourrait analyser de vastes jeux de données pour prévoir les tendances et les résultats, ce qui pourrait être utile dans des domaines tels que la surveillance de la santé publique, la surveillance de l’environnement et les prévisions économiques. Elle pourrait également contribuer à l’analyse des répercussions des politiques, c’est-à-dire traiter de grandes quantités d’informations et fournir des indications susceptibles d’éclairer la prise de décision.
  4. Ressources humaines : l’IA pourrait permettre de rationaliser le processus de recrutement grâce à la planification des entrevues et des examens. Elle pourrait servir à la présélection des candidatures pour rechercher des combinaisons spécifiques d’ensembles de compétences, ou de passer des examens écrits. Elle pourrait également servir à personnaliser les programmes de formation pour le personnel, déceler les lacunes en matière de compétences et recommander des cours pertinents.
  5. Santé publique et services sociaux : l’IA pourrait aider à trouver des modèles et à soutenir les décisions en matière de santé publique. Elle pourrait également aider à gérer et à traiter les demandes de services sociaux, à rationaliser les tâches administratives et à rendre plus efficace l’affectation des ressources aux collectivités qui en ont le plus besoin.
  6. Sécurité et conformité : l’IA pourrait surveiller les transactions et les activités afin de détecter et de prévenir les fraudes. Elle pourrait également soutenir les opérations gouvernementales en fournissant des analyses dans le cadre du processus d’évaluation des répercussions de la réglementation.
  7. Gestion de l’environnement : l’IA pourrait permettre d’optimiser l’utilisation des ressources naturelles en analysant les données relatives à la consommation et à la disponibilité. Elle pourrait également modéliser et prédire les effets des changements climatiques, ce qui pourrait être utile pour élaborer des stratégies d’atténuation efficaces.
  8. Mobilisation du public : l’IA pourrait analyser l’essence des messages du public sur les médias sociaux et d’autres plateformes afin mieux connaître l’opinion publique. Elle peut également traiter et analyser les commentaires issus des consultations publiques, ce qui permet d’obtenir des informations utiles à l’élaboration des politiques et des programmes.
  9. Soutien juridique et judiciaire : l’IA pourrait aider à examiner les documents juridiques, à repérer les informations pertinentes et à assurer le respect des normes juridiques. Elle peut également aider à gérer et à hiérarchiser les dossiers, ce qui permettrait d’assurer une utilisation efficace des ressources et un règlement rapide des dossiers.

Domaines d’intérêt

Les commentaires reçus pendant les consultations portent principalement sur quatre domaines : l’approvisionnement, les pratiques durables en matière d’IA, les talents et la formation, et l’utilisation éthique.

Ils mettent en évidence l’importance d’aborder ces domaines pour s’assurer que les technologies de l’IA sont correctement intégrées aux objectifs de durabilité et alignées sur ceux-ci, en plus d’être soutenues par un effectif qualifié et régies par des normes strictes en matière d’éthique. En veillant à ce que la stratégie d’IA traite de ces domaines, la fonction publique sera en mesure d’exploiter le potentiel de l’IA, tout en préservant la confiance du public et en assurant la responsabilisation.

Approvisionnement

Un processus d’approvisionnement efficace et économique influe directement sur le succès des opérations gouvernementales. Bien qu’ils ne soient pas propres à l’IA, les répondants ont déclaré que les processus d’approvisionnement du gouvernement doivent être transparents et équitables, témoigner de la capacité du gouvernement à utiliser les fonds publics de manière efficace et, en fin de compte, donner lieu à de meilleurs services et résultats.

  • Le GC devrait passer à un modèle d’approvisionnement souple et agile, axé sur les résultats, qui mettrait l’accent sur l’atteinte des résultats opérationnels et la création de valeur pour les citoyens, plutôt que de simplement satisfaire aux exigences et aux spécifications techniques. En mettant l’accent sur des résultats tels que l’amélioration des services aux citoyens, une efficacité accrue ou des économies de coûts, le GC peut encourager l’adoption souple de technologies d’IA qui offrent des avantages tangibles et stimulent la transformation du secteur public. Cette flexibilité est cruciale dans le domaine en évolution rapide de l’IA, où de nouvelles technologies et méthodologies émergent constamment et peuvent changer radicalement l’approche pour atteindre un objectif particulier pendant la durée de vie d’un contrat.
  • L’approvisionnement en IA doit être éthique et les processus d’approvisionnement doivent être assurer la transparence des outils achetés. Les prestataires de services devraient fournir une documentation claire sur leurs modèles d’IA, y compris des précisions sur les données relatives à la formation et les algorithmes. Les contrats devraient comprendre des clauses qui exigent des vérifications régulières et le respect des lignes directrices en matière d’éthique. Les personnes participantes ont plaidé en faveur de solutions d’IA à code source libre et ont souligné la nécessité d’une interopérabilité entre les différents systèmes d’IA afin de prévenir toute dépendance à l’égard des prestataires de services et de permettre une certaine souplesse.
  • Soutenir les entreprises canadiennes, en particulier les petites et moyennes entreprises, devrait être considéré comme essentiel pour promouvoir l’innovation et la croissance économique. Dans le contexte de la stratégie d’IA, ce soutien peut se manifester par des initiatives qui donnent à ces entreprises l’occasion de fournir des technologies, de la formation et des ressources en IA au gouvernement fédéral. Ce faisant, le GC peut favoriser un écosystème d’IA national dynamique qui stimule les progrès technologiques et les avantages économiques pour tous les Canadiens.
  • Les participants ont mis l’accent sur la souveraineté dans les décisions d’approvisionnement, ce qui peut aider à s’assurer que les technologies et les services d’IA essentiels sont développés et conservés dans le pays, améliorant ainsi la sécurité nationale et l’autonomie, mais stimulant également l’innovation locale et la création d’emplois. En accordant la priorité aux solutions d’IA canadiennes, nous pouvons bâtir une infrastructure d’IA robuste et sécurisée qui s’harmonise avec nos intérêts nationaux et soutient la croissance à long terme de notre économie, et réduire la dépendance à l’égard des entreprises étrangères ou des grandes entreprises multinationales.

Pratiques durables en matière d’IA

  • Le GC devrait tenir compte de l’impact environnemental des technologies d’IA lorsqu’il prend des décisions en matière d’approvisionnement. Il devrait choisir des solutions d’IA écoénergétiques et dont l’empreinte carbone est minimale.
  • Au lieu d’utiliser de grandes quantités de données, le GC devrait utiliser des données pertinentes dans des modèles plus petits et optimisés parce qu’ils utilisent moins d’énergie pour stocker et traiter les données. Cette approche peut permettre d’obtenir un meilleur rendement avec un impact environnemental moindre.
  • Le GC devrait envisager d’exiger des outils d’IA écoénergétiques, en plus d’exiger que les entreprises qui fournissent ces outils disposent de centres de données respectueux de l’environnement dans le cadre de ses décisions d’approvisionnement.
  • Les fonctionnaires, notamment les gestionnaires de programme, les membres des équipes de recherche technique en IA et les fonctionnaires responsables du développement de logiciels et de la prise de décisions, devraient comprendre les effets de l’IA sur l’environnement et le rôle important des pratiques durables en matière d’IA pour ce qui est de minimiser les effets sur l’environnement.

Talents et formation

  • Les fonctionnaires fédéraux, peu importe le niveau, doivent recevoir une formation sur l’IA. Les programmes de sensibilisation à l’IA devraient traiter des principes de base des applications éventuelles et des éléments éthiques à prendre en considération. Les fonctionnaires qui participent directement aux projets d’IA, par exemple les scientifiques des données et les membres des équipes d’ingénierie en IA, ont besoin d’une formation spécialisée. Une culture de l’apprentissage continu et du développement professionnel aidera les fonctionnaires à suivre le rythme des avancées de l’IA.
  • Pour attirer et conserver les personnes les plus talentueuses en matière d’IA, le GC devra offrir des salaires concurrentiels, des possibilités d’avancement professionnel et un milieu de travail solidaire. Il devrait y avoir des cheminements de carrière clairs et des possibilités de croissance professionnelle.
  • De nombreuses personnes participantes ont souligné la nécessité pour les ministères de travailler ensemble pour partager les connaissances, les outils et les pratiques exemplaires en matière d’IA. Les partenariats avec les entreprises et le milieu universitaire peuvent aider le GC à tirer parti de l’expertise et des ressources externes.
  • Les équipes d’IA au sein du GC doivent être diversifiées. La diversité permet d’obtenir des points de vue différents, ce qui aide à cerner et à éliminer la subjectivité inhérente aux modèles d’IA, notamment dans les données et les algorithmes. Des équipes diversifiées peuvent conduire à des systèmes d’IA plus équitables et plus inclusifs. La diversité des points de vue favorise la créativité et l’innovation, ce qui permet de trouver des solutions plus solides aux défis complexes de l’IA.

Utilisation éthique

  • Les personnes qui ont participé aux consultations ont souligné qu’il était essentiel d’avoir en place des lignes directrices complètes en matière d’éthique pour l’utilisation de l’IA dans la fonction publique fédérale. Ces lignes directrices devraient porter sur l’équité, la transparence, la responsabilisation et la prévention des préjugés. Les personnes participantes ont proposé la réalisation périodique d’audits liés à l’éthique pour assurer le respect des lignes directrices et prévenir les préjugés nuisibles. Il est indispensable de faire preuve de transparence dans les décisions relatives à l’utilisation de l’IA et de fournir des explications claires à cet égard. Le GC devrait, dans la mesure du possible, mettre les modèles d’IA à la disposition du public.
  • Les personnes participantes ont demandé au GC de mettre en place des mécanismes pour atténuer, détecter et corriger les préjugés inhérents aux systèmes d’IA. La conception inclusive peut aider à s’assurer que les systèmes d’IA tiennent compte des besoins et des points de vue de tous les groupes qui les utilisent, en particulier les collectivités marginalisées.
  • Il est absolument nécessaire d’appliquer de solides mesures de protection de la vie privée pour s’assurer que les données personnelles sont traitées de manière responsable et dans le respect des lois sur la protection des renseignements personnels.
  • De solides mesures de sécurité sont également essentielles pour protéger les systèmes d’IA contre les cybermenaces et les accès non autorisés.
  • Selon des personnes participantes, les processus décisionnels de l’IA doivent être surveillés par des personnes, en particulier dans les domaines à fort enjeu, par exemple les soins de santé et l’application de la loi.
  • Il s’avère nécessaire de mettre sur pied des comités d’éthique pour s’assurer que les systèmes d’IA sont élaborés et déployés dans le respect des normes en matière d’éthique.
  • La communication avec les personnes qui utilisent l’IA, y compris le public, permet de recueillir des informations sur les initiatives en matière d’IA et de répondre aux préoccupations en matière d’éthique. La sensibilisation du public aux avantages et aux risques de l’IA par des campagnes d’éducation et une communication transparente est un élément essentiel d’une initiative réussie en matière d’IA.

Domaines suggérés à inclure dans la stratégie d’IA

Voici les pratiques clés courantes liées à chaque pilier et domaine d’intervention qui ont été évoquées lors des consultations.

Centrage sur la personne

  • Automatisation : Utiliser l’IA pour gérer les tâches répétitives et administratives, afin de permettre aux fonctionnaires de se concentrer sur des activités à plus forte valeur ajoutée.
  • Programmes de recyclage : Élaborer des programmes de recyclage complets afin de doter les fonctionnaires des compétences nécessaires pour utiliser les technologies de l’IA et travailler avec elles.
  • Conception inclusive : Veiller à ce que les systèmes d’IA soient inclusifs dès le départ, en répondant aux besoins de diverses populations et en évitant les discriminations ou les préjugés.

Collaboration

  • Partenariats : Favoriser les collaborations avec le monde universitaire, l’industrie, les groupes autochtones et les organismes internationaux afin de tirer parti de l’expertise et de garantir un développement éthique de l’IA.
  • Consultations publiques : Mener des consultations publiques régulières afin de recueillir des commentaires et de s’assurer que les initiatives en matière d’IA répondent aux attentes du public.

Prêt-a-l’emploi

  • Infrastructure de l’IA : Veiller à ce que l’infrastructure puisse évoluer pour répondre aux demandes futures en matière d’IA, en utilisant des services d’informatique en nuage économes en énergie pour minimiser l’impact sur l’environnement.
  • Préparation aux données : Établir des liens étroits avec les stratégies de données existantes afin de garantir que les données sont facilement disponibles pour les applications d’IA.
  • Responsabilité environnementale : Construire ou acquérir des solutions d’IA qui démontrent des pratiques environnementales responsables.

Fiabilité

  • Transparence : Maintenir la transparence en publiant des évaluations d’impact de l’IA et en fournissant des explications claires sur les décisions prises en matière d’IA.
  • Responsabilisation : Établir des cadres pour définir les responsabilités et traiter les questions liées à l’utilisation de l’IA.
  • Éthique et protection de la vie privée : Être à l’avant-garde des pratiques éthiques en matière d’IA en défendant la transparence, en luttant contre les préjugés, en défendant des pratiques équitables et en protégeant la vie privée au moyen de politiques solides.

Domaines d’intérêt

  • Approvisionnement agile : Passez à un modèle d’approvisionnement flexible et axé sur les résultats pour garder une longueur d’avance dans le secteur de l’IA. Exigez de la transparence de la part des fournisseurs - plus de technologie « boîte noire ». Une documentation claire sur les modèles d’IA, les données d’entraînement et les algorithmes est indispensable.
  • Stimuler les entreprises domestiques : Accorder la priorité aux entreprises canadiennes, en particulier aux petites et moyennes entreprises, pour réduire leur dépendance à l’égard de l’étranger. Uniformiser les règles du jeu pour les petits fournisseurs contre les géants mondiaux.
  • IA respectueuse de l’environnement : Faire de l’impact environnemental une priorité absolue dans l’approvisionnement en IA. Choisissez des pratiques d’IA écologiques et durables.
  • Talents et formation de premier ordre : Favoriser une culture d’apprentissage continu. Offrir des salaires compétitifs et des opportunités de croissance aux experts en IA. Adoptez la diversité pour créer des solutions qui reflètent un large éventail de besoins.
  • IA éthique : Assurer la surveillance humaine dans la prise de décision en matière d’IA, en particulier dans des domaines critiques tels que les soins de santé et l’application de la loi. Mettre en place des comités d’éthique et des audits réguliers pour prévenir les préjugés. Éduquer le public sur les avantages et les risques de l’IA pour un déploiement réussi. Domaines dans lesquels l’IA ne devrait pas être utilisée

Domaines suggérés où l’IA ne devrait pas être utilisée

Les participants à la consultation ont exprimé des inquiétudes quant aux risques liés à l’utilisation de l’IA, notamment les suivants:

  • le risque de renforcer les préjugés dans le processus décisionnel automatisé;
  • les menaces pour la vie privée et les libertés civiles résultant de la surveillance par l’IA;
  • le risque de partialité dans les décisions liées à l’emploi;
  • les limites et le manque d’empathie de l’IA dans le processus décisionnel politique et les recommandations visant les politiques;
  • les risques d’exclusions injustes dans les décisions relatives à l’admissibilité aux services sociaux.

Le GC doit être extrêmement prudent dans la manière dont il utilise l’IA dans ces domaines sensibles. Il doit mettre en œuvre les applications de l’IA de manière responsable, en plus de mettre en place une surveillance solide et des lignes directrices en matière d’éthique, afin de favoriser la confiance du public et de préserver les valeurs démocratiques.

Un grand nombre de personnes qui ont participé aux consultations ont mentionné les domaines suivants dans lesquels le GC ne devrait pas utiliser l’IA :

  • Processus décisionnel automatisé dans le domaine de la justice pénale : les personnes qui ont participé aux consultations ont laissé entendre que l’utilisation de l’IA dans la justice pénale (par exemple, détermination de la peine, décisions de libération conditionnelle et opérations policières prédictives) pourrait soulever des problèmes d’éthique, en raison de la possibilité de renforcer les préjugés raciaux et socio‑économiques. Ces préjugés pourraient compromettre l’équité des décisions judiciaires et mener à des résultats plus sévères pour certains groupes. Elles ont également laissé entendre que les systèmes d’IA pourraient fonctionner comme des « boîtes noires » et obscurcir le processus décisionnel, ce qui éroderait la confiance du public et risquerait d’entraîner une discrimination systémique. Une dépendance excessive aux outils d’IA pourrait mettre en péril la prise de décisions équitables et pourrait porter atteinte aux droits des personnes.
  • Surveillance et collecte massive de données : des personnes participantes exprimé leur inquiétude en ce qui concerne la surveillance de masse par l’IA, la reconnaissance faciale et la collecte massive de données qui sont une menace pour la vie privée et les libertés civiles. Certaines d’entre elles se disent préoccupées par le fait que le gouvernement puisse utiliser l’IA pour suivre les personnes dans les espaces publics ou surveiller la dissidence, car, selon elles, cela risque de nuire à la liberté d’expression et de porter atteinte à la vie privée. Les erreurs de surveillance par l’IA peuvent conduire à des accusations injustifiées et au harcèlement. La perception d’une surveillance constante pourrait avoir un effet négatif sur la liberté d’expression. Les personnes participantes ont fait observer que le risque d’abus souligne le besoin urgent de mesures réglementaires strictes, en particulier lorsque la surveillance par l’IA concerne les espaces publics et les données personnelles.
  • Décisions liées à l’emploi : certaines personnes craignent que les outils d’IA utilisés dans les décisions d’embauche, de promotion ou de licenciement ne propagent des préjugés, en particulier dans la fonction publique fédérale, parce qu’ils reposent sur des données historiquement subjectives. Ces outils sont connus pour désavantager les femmes et les personnes de couleur, en particulier dans les secteurs dans lesquels les données reflètent les préférences passées pour les candidats masculins caucasiens. Cette subjectivité pourrait nuire à la diversité et à l’équité sur le lieu de travail, et l’incapacité de l’IA à reproduire le jugement humain nuancé pourrait compliquer davantage la tâche lorsqu’il est question de prendre des décisions concernant un emploi. La dépendance à l’égard de l’IA en matière d’embauche risque de renforcer les inégalités structurelles et d’aller à l’encontre des efforts déployés pour créer un effectif inclusif.
  • Processus décisionnel politique et recommandations visant les politiques : le processus décisionnel politique et l’élaboration de politiques nécessitent un jugement humain, la prise en considération des aspects éthiques et des processus démocratiques que l’IA ne peut à elle seule assurer. Les personnes participantes ont affirmé qu’une politique élaborée exclusivement par l’IA, axée uniquement sur les données, pourrait proposer des mesures d’économie de coûts qui réduisent les programmes sociaux, sans tenir compte des impacts négatifs sur les populations vulnérables. L’IA optimise souvent les réponses en fonction de résultats mesurables et peut négliger les besoins des personnes marginalisées. S’appuyer sur l’IA pour élaborer des politiques pourrait présenter des risques et créer un système technocratique qui saperait les principes démocratiques, donnerait la priorité à l’efficacité plutôt qu’à l’inclusion et pourrait marginaliser les groupes qui ont besoin d’être défendus.
  • Détermination de l’admissibilité aux services sociaux : certaines des personnes participantes ont fait remarquer que l’automatisation des décisions relatives à l’admissibilité aux services sociaux (par exemple, pour les prestations sociales ou d’invalidité) pourrait exclure injustement des personnes en raison de biais et d’erreurs algorithmiques. Sans surveillance et recours humains, ces systèmes peuvent affecter de manière disproportionnée les plus vulnérables et, par conséquent, exacerber les inégalités sociales en excluant les personnes dans le besoin. Les humains devraient toujours être impliqués dans les décisions administratives.

Conclusion

Les commentaires reçus dans le cadre des consultations ont permis de dresser un tableau complet des principaux éléments à prendre en compte dans la stratégie du GC en matière d’IA. En privilégiant une utilisation de l’IA qui repose sur les principes établis de la stratégie, à savoir centrage sur la personne, collaboration, prêt-à-l’emploi et fiabilité, le gouvernement peut avoir la certitude que l’adoption de l’IA améliorera les services publics et l’efficacité, et assurera en tout temps le respect des normes en matière d’éthique.

Les suggestions et recommandations des personnes qui ont participé aux consultations soulignent l’importance de l’inclusion, de la transparence, et de la mobilisation continue des parties intéressées pour construire un écosystème d’IA efficace et fiable dans le secteur public.

La stratégie continuera d’évoluer au fur et à mesure que le gouvernement adoptera de manière responsable et éthique l’intelligence artificielle pour différents aspects de son travail.

À mesure que la confiance du public dans l’adoption de l’IA augmente, nous espérons que cela se traduit par une participation accrue du public, ce qui renforcera les piliers de la démocratie au Canada.

Nous remercions toutes les personnes qui ont participé au processus de consultation et nous nous réjouissons à l’idée de travailler à nouveau avec elles à l’avenir.

Annexe : Données sur les personnes qui ont participé aux consultations publiques en ligne

Les consultations ont été menées sur le site Consultations auprès des Canadiens de la mi-septembre à la fin octobre 2024.

Répartition des soumissions reçues

  • Total des soumissions reçues : 283
  • Soumissions de personnes : 219
  • Soumissions d’organisations : 64

Répartition des soumissions de personnes, selon le genre

  • Femmes : 43 %
  • Hommes : 47 %
  • Autres : 1 %
  • Préfère ne pas répondre : 9 %

Répartition des soumissions de personnes, selon d’autres facteurs identitaires

Question Oui Non Préfère ne pas répondre
Je suis une personne en situation de handicap 20 % 68 % 12 %
Je m’identifie comme Autochtone 6 % 83 % 11 %
Je m’identifie comme une personne racialisée ou une minorité visible 21 % 66 % 13 %

Détails de la page

Date de modification :