Utilisation responsable de l’intelligence artificielle (IA)

Explorer l’avenir de l’utilisation responsable de l’IA au gouvernement

Les technologies de l’intelligence artificielle (IA) sont prometteuses pour améliorer la façon dont le gouvernement du Canada sert les Canadiens. Alors que nous examinons l’utilisation de l’IA dans les programmes et services du gouvernement, nous nous assurons que celle-ci est régie par des valeurs, une éthique et des lois claires.

Information et services

Nos principes directeurs

Pour assurer une utilisation efficace et éthique de l’IA.

Notre calendrier

Suivez l’évolution de notre Directive sur la prise de décisions automatisée.

Liste des fournisseurs qualilfiés par l’IA

La liste actuelle des entreprises qui cherchent à vendre leurs solutions liées à l’IA au gouvernement du Canada.

Évaluation de l’incidence algorithmique (EIA)

Voyez comment l’EIA aide les concepteurs à comprendre et à gérer les incidences de leurs solutions d’IA d’un point de vue éthique.

Directive sur la prise de décisions automatisée

Directive approuvée par le Conseil du Trésor sur l’utilisation de l’IA aux fins de la prise de décisions automatisée dans les services gouvernementaux.

Ligne directrice sur les services et le numérique

La section 4.5 offre une orientation additionnelle sur l’utilisation responsable et éthique des systèmes de prise de décisions automatisée.

Nos principes directeurs

Pour assurer une utilisation efficace et éthique de l’IA, le gouvernement veillera à :

  1. comprendre et mesurer l’incidence de l’utilisation de l’IA en concevant et en diffusant des outils et des approches;
  2. faire preuve de transparence quant à la façon et au moment d’utiliser l’IA, en se fondant sur un besoin clair des utilisateurs et l’intérêt du public;
  3. fournir des explications claires sur le processus décisionnel en matière d’IA tout en offrant des occasions d’examiner les résultats et de remettre en question les décisions;
  4. être le plus ouvert possible en communiquant le code source, les données sur la formation et d’autres renseignements pertinents et ce, en protégeant les renseignements personnels, l’intégrité du système, ainsi que la sécurité et la défense nationales;
  5. offrir une formation adéquate pour que les employés du gouvernement qui conçoivent et utilisent des solutions liées à l’IA aient les compétences nécessaires en matière de conception, de fonctionnement et de mise en œuvre responsables pour améliorer les services gouvernementaux fondés sur l’IA.

L'approvisionnement en IA dans un monde numérique

L'approvisionnement en IA dans un monde numérique - Transcript

Le gouvernement du Canada commence à utiliser l’intelligence artificielle pour prendre des décisions éclairées, être plus efficace et offrir de meilleurs services aux Canadiens.

L’intelligence artificielle est un outil puissant qui doit être utilisé de manière responsable. Nous devons être impartiaux, faire preuve de transparence sur le rôle qu’elle joue dans la prise de décisions, et veiller à ce que les avantages potentiels soient évalués par rapport aux résultats non voulus. Voilà pourquoi l’utilisation responsable fait partie intégrante de tout ce que nous faisons, y compris notre premier processus d’approvisionnement en produits et services d’intelligence artificielle.

Voici comment le processus se déroulera :

  1. En premier lieu, les fournisseurs intéressés devront présenter une demande et démontrer qu’ils peuvent offrir des solutions d’intelligence artificielle de manière responsable.
  2. Le gouvernement leur proposera ensuite de tester des projets.
  3. Les soumissionnaires intéressés devront préciser sur quel projet ils aimeraient travailler.
  4. Parmi ce groupe, le gouvernement choisira trois fournisseurs et en sélectionnera sept autres au hasard. Ces fournisseurs pourront présenter des propositions.
  5. Finalement, les soumissions seront évaluées et le gouvernement accordera des contrats.

Ce processus plus simple et plus rapide va non seulement faciliter la collaboration entre le gouvernement et les petites et moyennes entreprises, il fera également en sorte que l’éthique et la responsabilité feront partie intégrante de toutes les étapes des projets, du début à la fin.

Évaluation de l'incidence algorithmique

Évaluation de l'incidence algorithmique - Transcript

L’intelligence artificielle peut nous aider à faire de grandes choses, telles que préserver les langues autochtones ou d’aider les Canadiens à préparer leur déclaration de revenus et à obtenir des prestations. Toutefois, comme pour toute nouvelle technologie perturbatrice, nous devons nous assurer qu’elle est utilisée correctement, et dans l’intérêt des Canadiens.

C’est pourquoi l’élimination des préjugés et des inégalités dans la conception de l’intelligence artificielle est devenue une priorité absolue. Nous devons veiller à ce que l’intelligence artificielle soit construite, surveillée et gérée dès le départ, et c’est exactement ce que vise l’évaluation d’impact algorithmique (l’EIA) du gouvernement du Canada.

L’EIA fournit aux concepteurs une façon d’évaluer les solutions d’intelligence artificielle d’un point de vue éthique et humain, afin qu’elles soient conçues d’une manière responsable et transparente. Par exemple, l’évaluation permet de veiller à ce qu’il y ait un juste équilibre entre les intérêts économiques et la durabilité environnementale.

L’EIA comprend également des moyens de mesurer les répercussions potentielles sur le public et énonce des mesures appropriées à prendre, comme la surveillance comportementale et l’évaluation des algorithmes.

Visitez Canada.ca/GCnumerique, et découvrez comment le Canada est un chef de file en matière d’utilisation responsable et éthique de l’intelligence artificielle.

Notre calendrier

  • Mises à jour apportées à la Directive sur la prise de décisions automatisée (25 avril 2023)

    • La Directive a été modifiée à la suite du troisième examen de l’instrument
    • Les modifications principales incluent une portée élargie et de nouvelles mesures pour les explications, une vérification des biais, la gouvernance des données, l’ACS+ et un examen par les pairs
    • L’évaluation de l’incidence algorithmique a été mise à jour pour appuyer les modifications à la directive. Ceci comprend de nouvelles questions concernant les raisons pour l’automatisation, et l’incidence sur les personnes en situation de handicap
  • Mobilisation des intervenants concernant le troisième examen de la Directive sur la prise de décisions automatisée (avril – novembre 2022)

    • Mobilisation de plus de 30 groupes d’intervenants, y compris des institutions fédérales, des universités, des organisations de la société civile, des gouvernements d’autres compétences, et des organisations internationales
    • La mobilisation comprenait des tables rondes avec le Conseil consultatif en matière d'intelligence artificielle du GC, la Commission canadienne des droits de la personne, le Conseil de gouvernance numérique, des agents négociateurs, des réseaux pour les employés fédéraux visés par l’équité, et des représentants de collectivités fonctionnelles pertinentes du GC
  • Mises à jour apportées à la Directive sur la prise de décisions automatisée (1 avril 2021)

    • La Directive a été modifiée en fonction des commentaires ayant été reçus de la part des intervenants
  • Conformité à la Directive sur la prise de décisions automatisée (1 avril 2020)

    • Tous les nouveaux systèmes décisionnels automatisés doivent désormais se conformer à la Directive
  • Lancement de la Directive sur la prise de décisions automatisée (4 mars 2019)

    • Lancement officiel de la Directive sur la prise de décisions automatisée pendant la deuxième journée de l’IA.
  • Dîner-causerie avec le groupe des entrepreneurs du GC (12 octobre 2018)

  • Consultations à Toronto et Montréal sur la directive et l’évaluation de l’incidence algorithmique

    • Intervenants externes, notamment l’UQAM, ICRA, Osgoode Hall Law School, AI Impact Alliance (AiiA) et autres
  • Consultation auprès du Commissariat à la protection de la vie privée du Canada (18 septembre 2018)

  • Séance avec groupe de travail sur l’IA du ministère de la Justice (12 juin 2018)

    • Groupe de travail sur l’IA du ministère de la Justice créé; chargé de fournir des avis et une orientation sur les questions juridiques
    • 25 représentants multisectoriels, notamment des secteurs des droits de la personne, de la propriété intellectuelle, du secteur commercial, d’IRCC, d’EDSC et du SCT
  • Journée de l’IA (28 mai 2018)

    • 120 participants de l’industrie, du milieu universitaire et du gouvernement
  • Lancement du groupe de travail sur les politiques entourant l’IA (16 février 2018)

    • Organisé par AMC en vue de l’élaboration de politiques ministérielles sur l’IA
  • Séance de conception de la directive – Horizons de politiques (13 février 2018)

    • Atelier interministériel pour discuter de l’élaboration de la directive
    • Représentants du SCT, d’IRCC, d’ISDE et d’EDSC
  • Séance de lancement avec les ministères (22 janvier 2018)

    • Atelier organisé avec plus de 100 participants
    • Participants : SCT, IRCC, MPO, AAC, ASFC, conseils de financement, AMC, EDSC, CNRC, PCH, SC, RNCan, Conseil des arts du Canada, ARC, ISDE, Horizons de politiques et SPC
  • Rédaction de la directive (octobre 2017 à mars 2019)

    • Politique contraignante du SCT axée sur l’automatisation des décisions
  • Rédaction du livre blanc sur l’IA (octobre 2016 à octobre 2017)

    • Élaboré dans un environnement ouvert avec plusieurs experts en la matière du milieu universitaire, de la société civile et du gouvernement
Signaler un problème ou une erreur sur cette page
Veuillez sélectionner toutes les cases qui s'appliquent :

Merci de votre aide!

Vous ne recevrez pas de réponse. Pour toute question, contactez-nous.

Date de modification :