Utilisation responsable de l’intelligence artificielle (IA)

Explorer l’avenir de l’utilisation responsable de l’IA au gouvernement

Les technologies de l’intelligence artificielle (IA) sont prometteuses pour améliorer la façon dont le gouvernement du Canada sert les Canadiens. Alors que nous examinons l’utilisation de l’IA dans les programmes et services du gouvernement, nous nous assurons que celle-ci est régie par des valeurs, une éthique et des lois claires.

Information et services

Nos principes directeurs

Pour assurer une utilisation efficace et éthique de l’IA.

Notre calendrier

Suivez l’évolution de notre travail visant à appuyer l’utilisation responsable de l’IA au sein du gouvernement du Canada.

Directive sur la prise de décisions automatisée

Directive approuvée par le Conseil du Trésor sur l’utilisation de l’IA aux fins de la prise de décisions automatisée dans les services gouvernementaux.

Évaluation de l’incidence algorithmique (EIA)

Voyez comment l’EIA aide les concepteurs à comprendre et à gérer les incidences de leurs solutions d’IA d’un point de vue éthique.

Guide sur l’utilisation de l’intelligence artificielle générative

Explorez notre guide qui offre des orientations aux institutions fédérales dans leur utilisation responsable de l’IA générative.

Ligne directrice sur les services et le numérique

La section 4.5 offre une orientation additionnelle sur l’utilisation responsable et éthique des systèmes de prise de décisions automatisée.

Liste des fournisseurs en IA qualifiés

La liste actuelle des entreprises qui cherchent à vendre leurs solutions liées à l’IA au gouvernement du Canada.

Nos principes directeurs

Le gouvernement s’engage à veiller à l’utilisation efficace et éthique de l’IA. Les mesures suivantes s’harmonisent avec l’approche partagée des Nations numériques envers l’IA, et viennent refléter les valeurs et principes fondamentaux :

  1. Promouvoir la transparence sur comment, pourquoi et quand l’IA est utilisée.
  2. Donner la priorité aux besoins des individus et des communautés, notamment les peuples autochtones, et prendre en compte les avantages institutionnels et publics de l’IA.
  3. Évaluer et atténuer les risques de l’IA pour les droits juridiques et les normes démocratiques dès le début du cycle de vie des systèmes d’IA et après leur lancement.
  4. Veiller à ce que les données d’apprentissage ou autres données d’entrée utilisées par les systèmes d’IA soient légalement collectées, utilisées et divulguées, en tenant compte des droits applicables en matière de protection de la vie privée et de la propriété intellectuelle.
  5. Évaluer les résultats des systèmes d’IA, notamment les outils génératifs, afin de minimiser les biais et les inexactitudes, et permettre aux utilisateurs de faire la distinction entre les résultats de l’IA et ceux ayant été générés par les humains.
  6. Publier des évaluations des incidences juridiques ou éthiques, le code source, des données d’apprentissage, des audits ou des examens indépendants, ou d’autres documents pertinents sur les systèmes d’IA, tout en protégeant la vie privée, la sécurité gouvernementale et nationale, et la propriété intellectuelle.
  7. Expliquer les décisions automatisées aux personnes concernées et leur donner la possibilité de les contester et de demander réparation, ce qui pourrait impliquer un examen humain, le cas échéant.
  8. Encourager la création d’environnements d’essai contrôlés pour favoriser la recherche et l’innovation responsables.
  9. Mettre en place des mécanismes de contrôle pour les systèmes d’IA afin de garantir la responsabilité et de favoriser un suivi et une gouvernance efficaces tout au long du cycle de vie.
  10. Évaluer et atténuer les incidences sur l’environnement de la formation et de l’utilisation des systèmes d’IA et, le cas échéant, opter pour des systèmes à zéro émission.
  11. Former les fonctionnaires qui développent ou utilisent l’IA afin qu’ils comprennent les enjeux juridiques, éthiques et opérationnels, notamment la protection de la vie privée et la sécurité, et qu’ils soient en mesure d’adopter des systèmes d’IA de manière responsable.
  12. Créer des processus pour une mobilisation publique inclusive et significative sur les politiques ou les projets d’IA en vue de sensibiliser, d’instaurer la confiance et de réduire la fracture numérique.

L’approvisionnement en IA dans un monde numérique

L’approvisionnement en IA dans un monde numérique - Transcript

Le gouvernement du Canada commence à utiliser l’intelligence artificielle pour prendre des décisions éclairées, être plus efficace et offrir de meilleurs services aux Canadiens.

L’intelligence artificielle est un outil puissant qui doit être utilisé de manière responsable. Nous devons être impartiaux, faire preuve de transparence sur le rôle qu’elle joue dans la prise de décisions, et veiller à ce que les avantages potentiels soient évalués par rapport aux résultats non voulus. Voilà pourquoi l’utilisation responsable fait partie intégrante de tout ce que nous faisons, y compris notre premier processus d’approvisionnement en produits et services d’intelligence artificielle.

Voici comment le processus se déroulera :

  1. En premier lieu, les fournisseurs intéressés devront présenter une demande et démontrer qu’ils peuvent offrir des solutions d’intelligence artificielle de manière responsable.
  2. Le gouvernement leur proposera ensuite de tester des projets.
  3. Les soumissionnaires intéressés devront préciser sur quel projet ils aimeraient travailler.
  4. Parmi ce groupe, le gouvernement choisira trois fournisseurs et en sélectionnera sept autres au hasard. Ces fournisseurs pourront présenter des propositions.
  5. Finalement, les soumissions seront évaluées et le gouvernement accordera des contrats.

Ce processus plus simple et plus rapide va non seulement faciliter la collaboration entre le gouvernement et les petites et moyennes entreprises, il fera également en sorte que l’éthique et la responsabilité feront partie intégrante de toutes les étapes des projets, du début à la fin.

Évaluation de l’incidence algorithmique

Évaluation de l’incidence algorithmique - Transcript

L’intelligence artificielle peut nous aider à faire de grandes choses, telles que préserver les langues autochtones ou d’aider les Canadiens à préparer leur déclaration de revenus et à obtenir des prestations. Toutefois, comme pour toute nouvelle technologie perturbatrice, nous devons nous assurer qu’elle est utilisée correctement, et dans l’intérêt des Canadiens.

C’est pourquoi l’élimination des préjugés et des inégalités dans la conception de l’intelligence artificielle est devenue une priorité absolue. Nous devons veiller à ce que l’intelligence artificielle soit construite, surveillée et gérée dès le départ, et c’est exactement ce que vise l’évaluation d’impact algorithmique (l’EIA) du gouvernement du Canada.

L’EIA fournit aux concepteurs une façon d’évaluer les solutions d’intelligence artificielle d’un point de vue éthique et humain, afin qu’elles soient conçues d’une manière responsable et transparente. Par exemple, l’évaluation permet de veiller à ce qu’il y ait un juste équilibre entre les intérêts économiques et la durabilité environnementale.

L’EIA comprend également des moyens de mesurer les répercussions potentielles sur le public et énonce des mesures appropriées à prendre, comme la surveillance comportementale et l’évaluation des algorithmes.

Visitez Canada.ca/GCnumerique, et découvrez comment le Canada est un chef de file en matière d’utilisation responsable et éthique de l’intelligence artificielle.

Notre calendrier

  • Mises à jour apportées au Guide sur l’utilisation de l’intelligence artificielle générative (20 février 2024)

    • La deuxième version du Guide tient compte de la rétroaction des parties prenantes externes visées (universitaires, agents négociateurs et industrie), et traite des questions provenant des institutions fédérales.
    • Parmi les principaux changements ayant été apportés, on compte des définitions améliorées pour les principes PRETES, de nouvelles sections sur les responsabilités des institutions fédérales et des exigences en matière de documentation, et des ajouts dans la foire aux questions.
  • Approbation de l’approche partagée des Nations numériques envers l’intelligence artificielle au sein du gouvernement (13 novembre 2023)

    • L’approche partagée d’origine a été élaborée en 2018 par des pays membres, y compris le Canada
    • L’approche partagée mise à jour vient reconfirmer l’engagement collectif envers l’élaboration et la mise en œuvre d’approches en matière de gouvernance de l’IA dans le secteur public, afin de refléter les principes fondamentaux de la transparence, de la responsabilisation et de l’équité procédurale
  • Publication du Guide sur l’utilisation de l’intelligence artificielle générative (6 septembre 2023)

    • Fournit des orientations aux institutions fédérales dans leur utilisation de l’IA générative
    • Comprend une vue d’ensemble de l’IA générative, identifie les limites et les préoccupations litées à son utilisation, propose des principes « PRETES » pour son utilisation de manière responsable, et tient compte de certaines considérations politiques et pratiques exemplaires
  • Mises à jour apportées à la Directive sur la prise de décisions automatisée (25 avril 2023)

    • La Directive a été modifiée à la suite du troisième examen de l’instrument
    • Les modifications principales incluent une portée élargie et de nouvelles mesures pour les explications, une vérification des biais, la gouvernance des données, l’ACS+ et un examen par les pairs
    • L’évaluation de l’incidence algorithmique a été mise à jour pour appuyer les modifications à la directive. Ceci comprend de nouvelles questions concernant les raisons pour l’automatisation, et l’incidence sur les personnes en situation de handicap
  • Mobilisation des intervenants concernant le troisième examen de la Directive sur la prise de décisions automatisée (avril – novembre 2022)

    • Mobilisation de plus de 30 groupes d’intervenants, y compris des institutions fédérales, des universités, des organisations de la société civile, des gouvernements d’autres compétences, et des organisations internationales
    • La mobilisation comprenait des tables rondes avec le Conseil consultatif en matière d’intelligence artificielle du GC, la Commission canadienne des droits de la personne, le Conseil de gouvernance numérique, des agents négociateurs, des réseaux pour les employés fédéraux visés par l’équité, et des représentants de collectivités fonctionnelles pertinentes du GC
  • Mises à jour apportées à la Directive sur la prise de décisions automatisée (1 avril 2021)

    • La Directive a été modifiée en fonction des commentaires ayant été reçus de la part des intervenants
  • Conformité à la Directive sur la prise de décisions automatisée (1 avril 2020)

    • Tous les nouveaux systèmes décisionnels automatisés doivent désormais se conformer à la Directive
  • Lancement de la Directive sur la prise de décisions automatisée (4 mars 2019)

    • Lancement officiel de la Directive sur la prise de décisions automatisée pendant la deuxième journée de l’IA.
  • Dîner-causerie avec le groupe des entrepreneurs du GC (12 octobre 2018)

  • Consultations à Toronto et Montréal sur la directive et l’évaluation de l’incidence algorithmique

    • Intervenants externes, notamment l’UQAM, ICRA, Osgoode Hall Law School, AI Impact Alliance (AiiA) et autres
  • Consultation auprès du Commissariat à la protection de la vie privée du Canada (18 septembre 2018)

  • Séance avec groupe de travail sur l’IA du ministère de la Justice (12 juin 2018)

    • Groupe de travail sur l’IA du ministère de la Justice créé; chargé de fournir des avis et une orientation sur les questions juridiques
    • 25 représentants multisectoriels, notamment des secteurs des droits de la personne, de la propriété intellectuelle, du secteur commercial, d’IRCC, d’EDSC et du SCT
  • Journée de l’IA (28 mai 2018)

    • 120 participants de l’industrie, du milieu universitaire et du gouvernement
  • Lancement du groupe de travail sur les politiques entourant l’IA (16 février 2018)

    • Organisé par AMC en vue de l’élaboration de politiques ministérielles sur l’IA
  • Séance de conception de la directive – Horizons de politiques (13 février 2018)

    • Atelier interministériel pour discuter de l’élaboration de la directive
    • Représentants du SCT, d’IRCC, d’ISDE et d’EDSC
  • Séance de lancement avec les ministères (22 janvier 2018)

    • Atelier organisé avec plus de 100 participants
    • Participants : SCT, IRCC, MPO, AAC, ASFC, conseils de financement, AMC, EDSC, CNRC, PCH, SC, RNCan, Conseil des arts du Canada, ARC, ISDE, Horizons de politiques et SPC
  • Rédaction de la directive (octobre 2017 à mars 2019)

    • Politique contraignante du SCT axée sur l’automatisation des décisions
  • Rédaction du livre blanc sur l’IA (octobre 2016 à octobre 2017)

    • Élaboré dans un environnement ouvert avec plusieurs experts en la matière du milieu universitaire, de la société civile et du gouvernement

Détails de la page

Date de modification :