Utilisation responsable de l’intelligence artificielle (IA)
Explorer l’avenir de l’utilisation responsable de l’IA au gouvernement
Les technologies de l’intelligence artificielle (IA) sont prometteuses pour améliorer la façon dont le gouvernement du Canada sert les Canadiens. Alors que nous examinons l’utilisation de l’IA dans les programmes et services du gouvernement, nous nous assurons que celle-ci est régie par des valeurs, une éthique et des lois claires.
Information et services
Nos principes directeurs
Pour assurer une utilisation efficace et éthique de l’IA.
Notre calendrier
Suivez l’évolution de notre travail visant à appuyer l’utilisation responsable de l’IA au sein du gouvernement du Canada.
Directive sur la prise de décisions automatisée
Directive approuvée par le Conseil du Trésor sur l’utilisation de l’IA aux fins de la prise de décisions automatisée dans les services gouvernementaux.
Évaluation de l’incidence algorithmique (EIA)
Voyez comment l’EIA aide les concepteurs à comprendre et à gérer les incidences de leurs solutions d’IA d’un point de vue éthique.
Guide sur l’utilisation de l’intelligence artificielle générative
Explorez notre guide qui offre des orientations aux institutions fédérales dans leur utilisation responsable de l’IA générative.
Ligne directrice sur les services et le numérique
La section 4.5 offre une orientation additionnelle sur l’utilisation responsable et éthique des systèmes de prise de décisions automatisée.
Liste des fournisseurs en IA qualifiés
La liste actuelle des entreprises qui cherchent à vendre leurs solutions liées à l’IA au gouvernement du Canada.
Nos principes directeurs
Le gouvernement s’engage à veiller à l’utilisation efficace et éthique de l’IA. Les mesures suivantes s’harmonisent avec l’approche partagée des Nations numériques envers l’IA, et viennent refléter les valeurs et principes fondamentaux :
- Promouvoir la transparence sur comment, pourquoi et quand l’IA est utilisée.
- Donner la priorité aux besoins des individus et des communautés, notamment les peuples autochtones, et prendre en compte les avantages institutionnels et publics de l’IA.
- Évaluer et atténuer les risques de l’IA pour les droits juridiques et les normes démocratiques dès le début du cycle de vie des systèmes d’IA et après leur lancement.
- Veiller à ce que les données d’apprentissage ou autres données d’entrée utilisées par les systèmes d’IA soient légalement collectées, utilisées et divulguées, en tenant compte des droits applicables en matière de protection de la vie privée et de la propriété intellectuelle.
- Évaluer les résultats des systèmes d’IA, notamment les outils génératifs, afin de minimiser les biais et les inexactitudes, et permettre aux utilisateurs de faire la distinction entre les résultats de l’IA et ceux ayant été générés par les humains.
- Publier des évaluations des incidences juridiques ou éthiques, le code source, des données d’apprentissage, des audits ou des examens indépendants, ou d’autres documents pertinents sur les systèmes d’IA, tout en protégeant la vie privée, la sécurité gouvernementale et nationale, et la propriété intellectuelle.
- Expliquer les décisions automatisées aux personnes concernées et leur donner la possibilité de les contester et de demander réparation, ce qui pourrait impliquer un examen humain, le cas échéant.
- Encourager la création d’environnements d’essai contrôlés pour favoriser la recherche et l’innovation responsables.
- Mettre en place des mécanismes de contrôle pour les systèmes d’IA afin de garantir la responsabilité et de favoriser un suivi et une gouvernance efficaces tout au long du cycle de vie.
- Évaluer et atténuer les incidences sur l’environnement de la formation et de l’utilisation des systèmes d’IA et, le cas échéant, opter pour des systèmes à zéro émission.
- Former les fonctionnaires qui développent ou utilisent l’IA afin qu’ils comprennent les enjeux juridiques, éthiques et opérationnels, notamment la protection de la vie privée et la sécurité, et qu’ils soient en mesure d’adopter des systèmes d’IA de manière responsable.
- Créer des processus pour une mobilisation publique inclusive et significative sur les politiques ou les projets d’IA en vue de sensibiliser, d’instaurer la confiance et de réduire la fracture numérique.
L’approvisionnement en IA dans un monde numérique
Évaluation de l’incidence algorithmique
Notre calendrier
-
Mises à jour apportées au Guide sur l’utilisation de l’intelligence artificielle générative (20 février 2024)
- La deuxième version du Guide tient compte de la rétroaction des parties prenantes externes visées (universitaires, agents négociateurs et industrie), et traite des questions provenant des institutions fédérales.
- Parmi les principaux changements ayant été apportés, on compte des définitions améliorées pour les principes PRETES, de nouvelles sections sur les responsabilités des institutions fédérales et des exigences en matière de documentation, et des ajouts dans la foire aux questions.
-
Approbation de l’approche partagée des Nations numériques envers l’intelligence artificielle au sein du gouvernement (13 novembre 2023)
- L’approche partagée d’origine a été élaborée en 2018 par des pays membres, y compris le Canada
- L’approche partagée mise à jour vient reconfirmer l’engagement collectif envers l’élaboration et la mise en œuvre d’approches en matière de gouvernance de l’IA dans le secteur public, afin de refléter les principes fondamentaux de la transparence, de la responsabilisation et de l’équité procédurale
-
Publication du Guide sur l’utilisation de l’intelligence artificielle générative (6 septembre 2023)
- Fournit des orientations aux institutions fédérales dans leur utilisation de l’IA générative
- Comprend une vue d’ensemble de l’IA générative, identifie les limites et les préoccupations litées à son utilisation, propose des principes « PRETES » pour son utilisation de manière responsable, et tient compte de certaines considérations politiques et pratiques exemplaires
-
Mises à jour apportées à la Directive sur la prise de décisions automatisée (25 avril 2023)
- La Directive a été modifiée à la suite du troisième examen de l’instrument
- Les modifications principales incluent une portée élargie et de nouvelles mesures pour les explications, une vérification des biais, la gouvernance des données, l’ACS+ et un examen par les pairs
- L’évaluation de l’incidence algorithmique a été mise à jour pour appuyer les modifications à la directive. Ceci comprend de nouvelles questions concernant les raisons pour l’automatisation, et l’incidence sur les personnes en situation de handicap
-
Mobilisation des intervenants concernant le troisième examen de la Directive sur la prise de décisions automatisée (avril – novembre 2022)
- Mobilisation de plus de 30 groupes d’intervenants, y compris des institutions fédérales, des universités, des organisations de la société civile, des gouvernements d’autres compétences, et des organisations internationales
- La mobilisation comprenait des tables rondes avec le Conseil consultatif en matière d’intelligence artificielle du GC, la Commission canadienne des droits de la personne, le Conseil de gouvernance numérique, des agents négociateurs, des réseaux pour les employés fédéraux visés par l’équité, et des représentants de collectivités fonctionnelles pertinentes du GC
-
Mises à jour apportées à la Directive sur la prise de décisions automatisée (1 avril 2021)
- La Directive a été modifiée en fonction des commentaires ayant été reçus de la part des intervenants
-
Conformité à la Directive sur la prise de décisions automatisée (1 avril 2020)
- Tous les nouveaux systèmes décisionnels automatisés doivent désormais se conformer à la Directive
-
Lancement de la Directive sur la prise de décisions automatisée (4 mars 2019)
- Lancement officiel de la Directive sur la prise de décisions automatisée pendant la deuxième journée de l’IA.
-
Dîner-causerie avec le groupe des entrepreneurs du GC (12 octobre 2018)
-
Consultations à Toronto et Montréal sur la directive et l’évaluation de l’incidence algorithmique
- Intervenants externes, notamment l’UQAM, ICRA, Osgoode Hall Law School, AI Impact Alliance (AiiA) et autres
-
Consultation auprès du Commissariat à la protection de la vie privée du Canada (18 septembre 2018)
-
Séance avec groupe de travail sur l’IA du ministère de la Justice (12 juin 2018)
- Groupe de travail sur l’IA du ministère de la Justice créé; chargé de fournir des avis et une orientation sur les questions juridiques
- 25 représentants multisectoriels, notamment des secteurs des droits de la personne, de la propriété intellectuelle, du secteur commercial, d’IRCC, d’EDSC et du SCT
-
Journée de l’IA (28 mai 2018)
- 120 participants de l’industrie, du milieu universitaire et du gouvernement
-
Lancement du groupe de travail sur les politiques entourant l’IA (16 février 2018)
- Organisé par AMC en vue de l’élaboration de politiques ministérielles sur l’IA
-
Séance de conception de la directive – Horizons de politiques (13 février 2018)
- Atelier interministériel pour discuter de l’élaboration de la directive
- Représentants du SCT, d’IRCC, d’ISDE et d’EDSC
-
Séance de lancement avec les ministères (22 janvier 2018)
- Atelier organisé avec plus de 100 participants
- Participants : SCT, IRCC, MPO, AAC, ASFC, conseils de financement, AMC, EDSC, CNRC, PCH, SC, RNCan, Conseil des arts du Canada, ARC, ISDE, Horizons de politiques et SPC
-
Rédaction de la directive (octobre 2017 à mars 2019)
- Politique contraignante du SCT axée sur l’automatisation des décisions
-
Rédaction du livre blanc sur l’IA (octobre 2016 à octobre 2017)
- Élaboré dans un environnement ouvert avec plusieurs experts en la matière du milieu universitaire, de la société civile et du gouvernement
Détails de la page
- Date de modification :