Ligne d'effort 3 : Éthique, sécurité et confiance

Le défi

Les Canadiens s’attendent à ce que nous acquérions, développions et mettions en œuvre une IA légale, inclusive, éthique et sûre. L’utilisation de l’IA dans le cadre de la défense, en particulier celle avec des applications liées au recours à la force, sera examinée de près pour veiller à ce qu’elle soit conforme à nos valeurs communes et aux lois canadiennes ainsi qu’au droit international. Notre légitimité en ce qui concerne l’utilisation de la force militaire découle du consentement des personnes que nous servons et nous devons nous assurer de préserver cette légitimité en utilisant l’IA. Faute de quoi, nous pourrions perdre la confiance du public, courir le risque d’une atteinte à notre réputation, perpétuer de la discrimination et des préjugés et contribuer à un faible moral parmi notre personnel.

L’IA pourrait comporter des risques pour les droits de la personne, la vie privée et la sécurité. Alors que le MDN et les FAC font face à des risques réels s’ils ne suivent pas le rythme de leurs adversaires en matière d’IA, ils doivent rester conscients des risques possibles pour les droits de la personne liés à cette technologie. L’IA est un produit provenant de l’humain et des préjugés et des défauts propres aux humains sont intégrés dans ses données, ses algorithmes, ses modèles et les processus qui les accompagnent. Un nombre croissant d’incidents démontrent que l’IA peut échouer ou causer des dommages et des préjudices en raison de ces défauts et ainsi entraîner des décisions discriminatoires qui ne peuvent pas être expliquées ou vérifiées. L’IA peut également causer des dommages en raison d’un manque d’essai, d’expérimentation, d’évaluation et de surveillance et peut créer de nouveaux risques liés à la protection des données et des renseignements personnels et au droit à la vie privée. Dans un contexte de défense nationale comportant des renseignements hautement classifiés, les risques liés à l’IA comprennent également la possibilité de fuites, de cyberattaques, d’exposition d’actions de renseignement par inadvertance, de manipulation et de biais.

Une IA éthique et sûre sera essentielle afin de s’assurer que les membres de notre personnel s’y fient et l’utilisent. La volonté des membres et des employés d’utiliser les applications d’IA, en particulier dans un environnement de combat, dépendra de leur confiance à l’égard de la sécurité et du caractère éthique de ces technologies ainsi que de leurs effets et des décisions qui en découleront. Une adoption généralisée de l’IA exigera donc que nous démontrions cette sécurité à nos membres et à notre personnel. Les décisions, les comportements et les performances fondés sur l’IA doivent être cohérents, fiables et dignes de confiance autant que possible.

Ce que nous devons faire

Nous devons accorder une importance égale aux préoccupations éthiques, liées à la sécurité et techniques. L’identification, l’atténuation et le traitement des sources de préjudices involontaires et d’activités malveillantes intentionnelles doivent faire partie du cycle de vie des systèmes d’IA et devraient se voir accorder la même importance que la résolution de problèmes techniques.

Nous devons intégrer des exigences en matière d’éthique, d’équité et de sécurité à toutes les étapes du cycle de vie des projets et des systèmes, notamment la conception, le développement, la validation et la certification, l’acquisition et le déploiement de systèmes d’IA et leur éventuelle mise hors service. Les décisions visant à accroître les capacités liées à des tâches fondées sur la prise de décision humaine ou le jugement humain doivent être justifiées et documentées et des mécanismes doivent être mis en place pour veiller à ce que les décisions finales soient traçables et explicables par des mesures de responsabilisation appropriées. Tous les membres du personnel qui participent au développement, à l’acquisition et à l’utilisation de l’IA doivent bien comprendre leur rôle et leur niveau de responsabilité et de pouvoir à l’égard de ces projets et de ces systèmes. En outre, les projets doivent incorporer ACS Plus tout au long du cycle de vie de l’IA afin de garantir que les solutions répondent aux besoins de groupes divers et aux différentes expériences, qu’elles contribuent à des résultats positifs et qu’elles n’entraînent pas de préjudices découlant de préjugés ou biais algorithmiques ou liés aux données.

Nous devons rendre l’éthique relative à l’IA claire, cohérente et réalisable. De nombreuses organisations ont créé des principes d’éthique en matière d’IA, mais la plupart d’entre elles n’ont pas communiqué la manière de les mettre en pratique. Les personnes qui interviennent dans la conception, le développement et l’exécution de systèmes d’IA ont besoin d’étapes claires à suivre pour intégrer des approches éthiques à leur processus. Nous devons créer des outils pour permettre aux équipes de projets d’IA d’identifier les risques, de définir des stratégies d’atténuation et d’adopter de saines pratiques de fonctionnement éthiques à chaque étape du cycle de vie du projet.

Comment nous nous y prendrons

  1. Veiller à ce que toute nouvelle IA ou technologie basée sur l’IA soit élaborée et mise en œuvre conformément aux lois, aux politiques et aux lignes directrices applicables. Il s’agit notamment du droit canadien et international, de la réglementation applicable et des politiques du gouvernement du Canada telles que le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’IA générative avancés, le Guide sur l’utilisation de l’intelligence artificielle générative et la Directive sur la prise de décisions automatisée. Cela inclut l’engagement du MDN et des FAC à intégrer l’ACS Plus aux opérations, aux politiques et aux programmes et aux instruments connexes du MDN et des FAC, comme le cycle de ciblage, les règles d’engagement, la gestion des risques et les politiques et lignes directrices en matière de sécurité et de gestion de l’information. Le MDN et les FAC répondront également aux directives d’organes d’examen externes, comme le Secrétariat du Comité des parlementaires sur la sécurité nationale et le renseignement (CPSNR), l’Office de surveillance des activités en matière de sécurité nationale et de renseignement (OSSNR) et le Commissariat à la protection de la vie privée du Canada (CPVP).
  2. Élaborer des principes d’éthique en matière d’IA, des cadres de risques et des pratiques opérationnelles pour le cycle de vie de l’IA. En s’appuyant sur les pratiques exemplaires fédérales et internationales, le MDN et les FAC, à l’initiative du CIAMF, élaboreront un ensemble de principes d’éthique, des pratiques opérationnelles et un cadre de prévention des risques en matière d’IA pour intégrer ces pratiques exemplaires à l’ensemble du cycle de vie de l’IA. Ce cadre identifiera les risques et leurs répercussions afin qu’ils puissent être atténués et pour assurer un niveau de transparence, de compréhension et d’intervention humaine adapté aux risques et aux répercussions en cause. Conformément à la Directive sur la prise de décisions automatisée et aux évaluations de l’incidence algorithmique, le cadre tiendra compte des risques pour les droits, la santé et le bien-être ainsi que les intérêts économiques des personnes et des collectivités touchées par le système, y compris les conséquences discriminatoires découlant de préjugés algorithmiques ou liés aux données et des risques pour la durabilité continue d’un écosystème. Au fil de l’évolution de la technologie et des pratiques exemplaires, nous mettrons à jour ce cadre et ces pratiques afin de veiller à ce qu’ils restent évolutifs.
  3. Intégrer des normes et élaborer des exigences relatives à des systèmes d’IA éthiques, sûrs, inclusifs et fiables en matière de défense et de sécurité. Cela inclut les normes éthiques canadiennes et internationales existantes, ainsi que les normes en matière de données, de confiance du numérique et de gestion de l’identité. Nous devons également favoriser l’adoption et l’opérationnalisation des principes de l’IA chez les fournisseurs tiers et collaborer avec nos principaux alliés et partenaires pour poursuivre l’élaboration et l’intégration de normes nationales et internationales en matière d’éthique de données et d’IA, par exemple les principes de l’OTAN relatifs à l’utilisation responsable de l’intelligence artificielle dans la défense.
  4. Collaborer avec des partenaires internes et externes pour une IA éthique, sûre et fiable. Le MDN et les FAC tireront parti du leadership du secteur public et de la société civile du Canada en matière d’éthique relative à l’IA et de l’expertise du Programme d’éthique de la Défense, du directeur – Égalité des genres et analyse intersectionnelle (DEGAI) et d’autres intervenants pour favoriser l’utilisation responsable, sûre et inclusive des technologies d’IA. Nous collaborerons avec d’autres organismes et ministères du gouvernement du Canada et nos partenaires en matière de sécurité pour continuer de promouvoir l’équité, la sécurité et la confiance relatives à l’IA ainsi qu’avec d’autres pays pour élaborer des normes et des mesures de renforcement de la confiance en matière d’IA et pour ouvrir des voies de communication concernant les accidents, le comportement imprévu de systèmes, les cyberattaques et les effets émergents à la suite de l’interaction de systèmes. Nous encouragerons le développement et l’utilisation responsables de l’IA par les autres pays.

Détails de la page

Date de modification :