Utilisation responsable de l’intelligence artificielle (IA)

Explorer l’avenir de l’utilisation responsable de l’IA au gouvernement

Les technologies de l’intelligence artificielle (IA) sont prometteuses pour améliorer la façon dont le gouvernement du Canada sert les Canadiens. Alors que nous examinons l’utilisation de l’IA dans les programmes et services du gouvernement, nous nous assurons que celle-ci est régie par des valeurs, une éthique et des lois claires.

Information et services

Nos principes directeurs

Pour assurer une utilisation efficace et éthique de l’IA.

Évaluation de l'incidence algorithmique

Voyez comment l’évaluation de l’incidence algorithmique aide les concepteurs à déterminer dans quelle mesure leurs solutions liées à l’IA sont acceptables d’un point de vue éthique et humain.

Liste des fournisseurs qualilfiés par l’IA

La liste actuelle des entreprises qui cherchent à vendre leurs solutions liées à l’IA au gouvernement du Canada.

Plan stratégique de la gestion de l’information et de la technologie de l’information du gouvernement du Canada de 2017 à 2021

Orientation stratégique de quatre ans pour la gestion de l’information et la technologie de l'information au gouvernement fédéral.

Directive sur le processus décisionnel automatisé

Directive approuvée par le Conseil du Trésor sur l’utilisation de l’IA aux fins de la prise de décisions automatisée dans les services gouvernementaux.

Notre calendrier

Suivez l’évolution de notre Directive sur la prise de décision automatisée.

Nos principes directeurs

Pour assurer une utilisation efficace et éthique de l’IA, le gouvernement veillera à :

  1. comprendre et mesurer l’incidence de l’utilisation de l’IA en concevant et en diffusant des outils et des approches;
  2. faire preuve de transparence quant à la façon et au moment d’utiliser l’IA, en se fondant sur un besoin clair des utilisateurs et l’intérêt du public;
  3. fournir des explications claires sur le processus décisionnel en matière d’IA tout en offrant des occasions d’examiner les résultats et de remettre en question les décisions;
  4. être le plus ouvert possible en communiquant le code source, les données sur la formation et d’autres renseignements pertinents et ce, en protégeant les renseignements personnels, l’intégrité du système, ainsi que la sécurité et la défense nationales;
  5. offrir une formation adéquate pour que les employés du gouvernement qui conçoivent et utilisent des solutions liées à l’IA aient les compétences nécessaires en matière de conception, de fonctionnement et de mise en œuvre responsables pour améliorer les services gouvernementaux fondés sur l’IA.

L'approvisionnement en IA dans un monde numérique

L'approvisionnement en IA dans un monde numérique - Transcript

Le gouvernement du Canada commence à utiliser l’intelligence artificielle pour prendre des décisions éclairées, être plus efficace et offrir de meilleurs services aux Canadiens.

L’intelligence artificielle est un outil puissant qui doit être utilisé de manière responsable. Nous devons être impartiaux, faire preuve de transparence sur le rôle qu’elle joue dans la prise de décisions, et veiller à ce que les avantages potentiels soient évalués par rapport aux résultats non voulus. Voilà pourquoi l’utilisation responsable fait partie intégrante de tout ce que nous faisons, y compris notre premier processus d’approvisionnement en produits et services d’intelligence artificielle.

Voici comment le processus se déroulera :

  1. En premier lieu, les fournisseurs intéressés devront présenter une demande et démontrer qu’ils peuvent offrir des solutions d’intelligence artificielle de manière responsable.
  2. Le gouvernement leur proposera ensuite de tester des projets.
  3. Les soumissionnaires intéressés devront préciser sur quel projet ils aimeraient travailler.
  4. Parmi ce groupe, le gouvernement choisira trois fournisseurs et en sélectionnera sept autres au hasard. Ces fournisseurs pourront présenter des propositions.
  5. Finalement, les soumissions seront évaluées et le gouvernement accordera des contrats.

Ce processus plus simple et plus rapide va non seulement faciliter la collaboration entre le gouvernement et les petites et moyennes entreprises, il fera également en sorte que l’éthique et la responsabilité feront partie intégrante de toutes les étapes des projets, du début à la fin.

Évaluation de l'incidence algorithmique

Évaluation de l'incidence algorithmique - Transcript

L’intelligence artificielle peut nous aider à faire de grandes choses, telles que préserver les langues autochtones ou d’aider les Canadiens à préparer leur déclaration de revenus et à obtenir des prestations. Toutefois, comme pour toute nouvelle technologie perturbatrice, nous devons nous assurer qu’elle est utilisée correctement, et dans l’intérêt des Canadiens.

C’est pourquoi l’élimination des préjugés et des inégalités dans la conception de l’intelligence artificielle est devenue une priorité absolue. Nous devons veiller à ce que l’intelligence artificielle soit construite, surveillée et gérée dès le départ, et c’est exactement ce que vise l’évaluation d’impact algorithmique (l’EIA) du gouvernement du Canada.

L’EIA fournit aux concepteurs une façon d’évaluer les solutions d’intelligence artificielle d’un point de vue éthique et humain, afin qu’elles soient conçues d’une manière responsable et transparente. Par exemple, l’évaluation permet de veiller à ce qu’il y ait un juste équilibre entre les intérêts économiques et la durabilité environnementale.

L’EIA comprend également des moyens de mesurer les répercussions potentielles sur le public et énonce des mesures appropriées à prendre, comme la surveillance comportementale et l’évaluation des algorithmes.

Visitez Canada.ca/GCnumerique, et découvrez comment le Canada est un chef de file en matière d’utilisation responsable et éthique de l’intelligence artificielle.

Notre calendrier

  • Deuxième Journée de l’IA (4 mars 2019)

    • Lancement officiel de la Directive sur la prise de décision automatisée
  • Dîner-causerie avec le groupe des entrepreneurs du GC (12 octobre 2018)

  • Consultations sur la directive et l’évaluation de l’incidence algorithmique

    • Toronto et Montréal
    • Intervenants externes (UQAM, ICRA, Osgoode Hall Law School, AI Impact Alliance (AiiA) et autres)
  • Commissariat à la protection de la vie privée (18 septembre 2018)

    • Consultation et commentaires
  • Séance : Services juridiques – Justice (12 juin 2018)

    • Création d’un groupe de travail sur l’IA du ministère de la Justice chargé de fournir des avis et une orientation
    • 25 représentants multisectoriels
      • Droits de la personne, propriété intellectuelle, secteur commercial, IRCC, EDSC, SCT et autres
    • Des changements ont été apportés en fonction de leurs commentaires
  • Journée de l’IA (28 mai 2018)

    • 120 participants de l’industrie, du milieu universitaire et du gouvernement
  • Lancement du groupe de travail sur les politiques entourant l’IA (16 février 2018)

    • Organisé par AMC en vue de l’élaboration de politiques ministérielles sur l’IA
  • Séance de conception de la directive – Horizons de politiques (13 février 2018)

    • Atelier interministériel pour discuter de l’élaboration de la directive
    • Des représentants d’IRCC, d’ISDE et d’EDSC étaient présents
  • Séance de lancement avec les ministères (22 janvier 2018)

    • Atelier organisé avec plus de 100 participants
    • Participants : IRCC, MPO, Agriculture, ASFC, conseils de financement, AMC, EDSC, CNRC, PCH, SC, RNCan, Conseil des arts du Canada, ARC, ISDE, Horizons de politiques et SPC
  • Rédaction de la directive (octobre 2017 à aujourd’hui)

    • Politique contraignante du SCT axée sur l’automatisation des décisions
  • Rédaction du livre blanc (octobre 2016 à octobre 2017)

    • Élaboré dans un environnement ouvert avec plusieurs experts en la matière du milieu universitaire, de la société civile et du gouvernement
Signaler un problème ou une erreur sur cette page
Veuillez sélectionner toutes les cases qui s'appliquent :

Merci de votre aide!

Vous ne recevrez pas de réponse. Pour toute question, contactez-nous.

Date de modification :