Résumé de la septième séance : lien avec l’application de la loi

Le Groupe consultatif d'experts sur la sécurité en ligne a tenu sa septième session le 27 mai de 13h00 à 16h00 HAE, sur le lien avec les forces de l'ordre. Onze membres étaient présents. Des représentants des ministères du Patrimoine canadien, de la Justice, de l'Innovation, des Sciences et du Développement économique, de la Sécurité publique, des Femmes et de l'Égalité des sexes et du Bureau du Conseil privé se sont joints au Groupe consultatif. Des représentants de la Gendarmerie royale du Canada étaient également présents.

Le présent résumé donne un aperçu de la septième session. Conformément au mandat du groupe consultatif, ces sessions fonctionnent selon la règle de Chatham House. Ainsi, ce résumé n'attribue pas les opinions exprimées à un membre du groupe ou à une organisation en particulier. Il présente les points de vue exprimés au cours de la session, signale les domaines d'accord, de désaccord et de discussion, et organise la discussion en catégories thématiques. Il ne doit pas être considéré comme une récitation verbatim de la discussion.

La question de discussion de l'atelier était la suivante : « Quelles sont les questions pertinentes à considérer et les liens appropriés à établir entre un nouveau régime de réglementation fondé sur les systèmes et le travail des organismes canadiens d'application de la loi et de sécurité nationale ? »

Les objectifs de la session étaient les suivants

  1. Déterminer quel rôle, le cas échéant, les entités réglementées devraient jouer en vertu du cadre proposé dans :
    1. Notifier aux organismes chargés de l'application de la loi et/ou de la sécurité nationale des types spécifiques de contenu que les plateformes ont choisi de supprimer ; et
    2. Conserver les données relatives à certains types de contenus, en reconnaissant que toute obligation légale existante continuerait de prévaloir.
  2. Identifier et discuter des conséquences potentielles de l'imposition d'exigences de notification ou de conservation aux entités réglementées en ce qui concerne des types spécifiques de contenus préjudiciables, y compris la question des seuils juridiques (par exemple, motifs raisonnables de croire que le contenu est criminel, probabilité de causer un préjudice, risque imminent de préjudice grave, etc.)

Le présent résumé rend compte des points de vue soulevés par rapport à ces objectifs et organise les points de discussion en fonction de thèmes spécifiques.Note de bas de page 1

Thème A: Obligations de déclaration et de conservation des données

De nombreux experts s'accordent à dire que la déclaration obligatoire et la conservation des données seraient requises dans des circonstances très spécifiques et qu'elles devraient être définies de manière restrictive afin d'éviter une surveillance policière exagérée, en particulier pour les communautés marginalisées, et des atteintes au droit à la vie privée. Certains experts ont préconisé de consacrer ces obligations en fonction du risque de préjudice imminent ou grave.

D'autres experts ont mis en garde contre l'extension des obligations de déclaration et de conservation des données à des contenus qui ne sont pas manifestement illégaux, car il est très difficile pour les plateformes de déterminer l'illégalité d'un contenu. Les experts ont expliqué que de telles exigences pouvaient soulever de graves problèmes liés aux droits de l'homme et à la Charte et qu'elles devaient donc être utilisées en dernier recours, dans des circonstances exceptionnelles, lorsqu'il n'existe pas d'autres solutions raisonnables pour atteindre les objectifs politiques.

Obligation de déclaration ou notification obligatoires

La plupart des experts s'accordent à dire que les exigences de déclaration obligatoire du matériel de pornographie juvénile devraient être traitées séparément dans le cadre d'une loi renforcée sur la déclaration obligatoire, compte tenu du volume de matériel pornographie juvénile partagé en ligne, de la nature flagrante de ce contenu et de la complexité des enquêtes. Certains experts ont déclaré que la Loi sur le signalement obligatoire devrait être modifiée afin d'étendre la période de conservation des données de 21 jours à 12 mois. Quelques experts ont soutenu l'idée d'autoriser la police à accéder aux données de transmission et aux informations de base sur l'abonné (Basic Subscriber Information – BSI) afin de garantir des enquêtes rapides, tout en reconnaissant que des mesures de protection, telles que l'obtention d'une ordonnance du tribunal, devraient également être prévues.

Certains experts se sont demandé si d'autres types de contenu devraient faire l'objet d'une déclaration obligatoire. Certains experts ont proposé de fixer un seuil de déclaration en faisant référence à un risque « imminent » ou « grave » de violence à l'égard d'une personne ou d'un groupe spécifique (par exemple, un utilisateur communiquant son intention de procéder à une fusillade de masse). Quelques experts ont averti que l' « imminence » et la « gravité » sont subjectives. Certains experts ont mis en garde contre l'inclusion de toute obligation de signalement dans la législation, invoquant des préoccupations relatives aux droits garantis par la Charte.

Quelques experts ont fait valoir que les obligations de signalement et de conservation sont d'une utilité limitée puisque les forces de l'ordre ne peuvent pas agir sur tous les contenus qui leur sont signalés. Ils ont souligné que la police a souvent accès à un large éventail de données en ligne, mais qu'il est difficile de filtrer le volume d'informations et de les recouper avec des informations hors ligne.

Quelques experts ont signalé que l'instauration d'obligations de déclaration, en l'absence de dispositions relatives à l’exonération qui offrent une protection contre la responsabilité, comporte des risques. Certains experts ont suggéré qu'au lieu d'imposer des obligations de déclaration obligatoire, les entités réglementées devraient être invitées à faire des divulgations volontaires et de bonne foi aux services de police.

Obligation de préservation des données

Certains experts se sont montrés réticents à l'idée d'imposer des exigences explicites en matière de préservation, car cela pourrait ouvrir la porte à un éventail plus large de collecte et de partage de contenus. Ils ont insisté sur la nécessité d'un champ d'application très limité et ont souligné que des garanties devraient être mises en œuvre pour éviter un débordement du champ d’application et la collecte excessive de données par les plateformes. Les experts ont également souligné que les contenus sont rarement réellement supprimés, expliquant qu'il existe souvent des copies de ces contenus sauvegardées ailleurs en ligne.

Quelques experts ont suggéré qu'au lieu d'imposer des obligations en matière de préservation des données, le cadre pourrait tirer parti de la procédure de révision et d'appel des services en ligne pour préserver le contenu. Ils ont expliqué qu'une procédure d'examen et d'appel au niveau des plateformes obligerait ces dernières à conserver le contenu et pourrait ainsi donner le temps aux services d’application de la loi d'accéder aux informations nécessaires à leur enquête. Quelques experts ont évoqué un risque lié à cette approche proposée, car tous les contenus utiles aux services d’application de la loi ne seraient pas soumis à l'examen d'une plateforme. Par ailleurs, certains experts ont suggéré que les obligations de conservation soient formulées de manière similaire aux obligations de tenue de registres imposées aux personnes morales à des fins fiscales.

Applicabilité des lois existantes à l'espace en ligne

Quelques experts ont souligné que le Code criminel s'applique aux espaces en ligne, mais qu'un mécanisme est nécessaire pour donner effet aux règles du Code criminel. Ils ont expliqué qu'il est nécessaire de disposer d'outils plus performants pour assurer le respect des lois pénales au Canada et pour agir rapidement dans les cas où l'efficacité est requise.

Certains experts ont proposé la création d'un cyber-juge pour déterminer la légalité du contenu, expliquant que les plateformes n'ont pas la légitimité pour faire de tels appels. La décision du cyber-juge sur la légalité du contenu serait temporaire, ont expliqué les experts, et pourrait être réexaminée de manière plus approfondie par un organe judiciaire. D'autres experts ont souligné que signaler un contenu n'est pas la même chose que déterminer la légalité de ce contenu.

Risques associés avec les obligations légales

Risque de biais systémiques

De nombreux experts ont affirmé qu'il existe un risque de perpétuation des préjugés systémiques liés à la mise en œuvre par les plateformes des obligations de déclaration et de conservation des données, en particulier dans les cas où la modération du contenu est automatisée. Quelques experts ont exprimé une préférence pour la modération humaine, mais ont reconnu que les modérateurs humains ne sont pas non plus à l'abri des préjugés. Certains experts ont fait valoir qu'il faut trouver un équilibre entre l'atténuation de tout risque de partialité en ligne associé à la déclaration obligatoire et le risque que ces mêmes communautés soient ciblées par des délinquants, ce qui pourrait être évité en signalant le contenu aux organismes d'application de la loi. Quelques experts ont suggéré que la législation future inclue à la fois l'objectif de réduire les contenus préjudiciables et celui de garantir les droits fondamentaux des utilisateurs, y compris les droits à l'équité. Les experts ont expliqué que l'inclusion de tels objectifs pourrait influencer la manière dont les plateformes remplissent leurs obligations. D'autres experts ont suggéré que la législation oblige explicitement les plateformes à réduire les préjugés systémiques par des mesures d'atténuation des risques.

De nombreux experts ont également souligné que les organismes chargés de faire respecter la loi ont des préjugés, illustrés par la manière dont ils appliquent la loi. Quelques experts ont déclaré que de nombreuses forces de police ne disposent pas d'unités anti-haine. De nombreux experts ont demandé une formation en matière d'équité et d'inclusion pour les organismes d'application de la loi et ont également indiqué qu'un changement culturel est nécessaire. Certains experts ont suggéré que les organismes d'application de la loi coordonnent leurs efforts avec ceux d'autres organisations et leur demandent leur soutien pour améliorer leurs préjugés. Quelques experts ont également suggéré que l'ensemble du projet de loi, en particulier les parties relatives à l'application de la loi, soit soumis à une évaluation de l'équité afin de protéger les droits des communautés marginalisées.

Risque pour la vie privée

De nombreux experts ont mentionné que les obligations légales étendues en matière de déclaration et de conservation des données, ainsi que les mécanismes de détection automatisée correspondants, pourraient constituer un risque pour la vie privée des utilisateurs. De nombreux experts ont cité le manque de confiance de certaines communautés à l'égard des organismes chargés de l'application de la loi, expliquant que ce déficit de confiance pourrait renforcer le sentiment que ces obligations portent atteinte au droit à la vie privée des utilisateurs.

De nombreux experts ont déclaré que les obligations de conservation devraient avoir une portée limitée afin d'éviter d'encourager un système général de surveillance. Certains ont suggéré que le cadre réglementaire établisse des critères explicites pour déterminer quand les informations peuvent être transférées, complétés par des dispositions claires et étroites concernant la conservation et le stockage.

Thème B: Aligner une approche fondée sur le risqué avec les besoins des forces de l’ordre

De nombreux experts ont suggéré que l'évaluation par les plateformes de leur niveau de risque (en fonction de facteurs tels que la taille, le volume d'activité, le type de contenu) pourrait moduler leur niveau de coopération attendu avec les services d’application de la loi. Ils ont expliqué que les plateformes pourraient identifier leur risque individuel et expliquer aux services d’application de la loi les mesures qu'elles prévoient de mettre en place pour minimiser ce risque. Les experts ont souligné que cette approche pourrait permettre de se concentrer sur les services qui présentent un risque important pour les Canadiens et d'éviter la surrèglementation des services qui présentent un risque moindre.

Ils ont également mentionné qu'une telle approche pourrait permettre d'évaluer les risques de biais systémiques associés à la déclaration obligatoire et à la préservation des données pour les communautés marginalisées. Selon eux, la diffusion au public de l'évaluation des risques des plateformes pourrait informer les utilisateurs sur la manière dont les plateformes remplissent leurs obligations. De nombreux experts ont convenu que les entités réglementées devraient inclure la manière dont elles prévoient de traiter les biais systémiques dans leurs plans de sécurité numérique.

Quelques experts ont suggéré qu'à l'instar d'une alerte Amber, dans le cas où un contenu très nuisible serait partagé, les plateformes pourraient disposer d'un mécanisme permettant de prévenir les autorités le plus rapidement possible. Une telle approche, ont expliqué les experts, constituerait une réponse proportionnelle conforme aux droits et libertés de la Charte.

Un cadre base sur le risqué de préjudice

Quelques experts ont suggéré que les obligations de signalement et de conservation soient limitées à certains types de contenus. Selon eux, certains types de contenus, en raison de leur caractère illégal ou de leur risque pour la vie et la sécurité, devraient être signalés aux forces de l'ordre et rapidement retirés. Ils expliquent que ces contenus doivent également être préservés. Les experts ont souligné que les contenus de la "zone grise" ne seraient pas soumis à ces obligations.

D'autres experts ont souligné l'importance de la communication et de la collaboration entre les plateformes en cas de violence imminente. Certains experts ont suggéré que le régulateur joue un rôle de coordination en s'engageant et en collaborant régulièrement avec les parties prenantes, le secteur et les services fédéraux, tels que les services d’application de la loi, pour mettre en œuvre le dispositif législatif et réglementaire et l'adapter au fil du temps.

Développement de codes de pratique

Pour les contenus qui n'atteignent pas le seuil de déclaration obligatoire, la plupart des experts ont convenu que des codes de pratique pourraient être élaborés par le régulateur en partenariat avec l'industrie et les parties prenantes. Ces codes pourraient inclure des conseils sur le moment et la manière de faire un signalement aux forces de l'ordre. Les experts ont suggéré que différents codes de pratique pourraient être institués pour différents types de contenus et de plateformes. De nombreux experts ont souligné qu'un processus d'engagement inclusif serait nécessaire pour élaborer de tels codes. D'autres experts ont souligné le rôle proactif que les entreprises pourraient jouer en partageant les bonnes pratiques entre elles. Enfin, quelques experts ont souligné l'importance de la mise en place d'un régulateur chargé de faire respecter les codes de pratique.

Importance de la transparence et de la surveillance

De nombreux experts ont souligné l'importance de la surveillance et de l'audit des entités réglementées et des organismes chargés de l'application de la loi par l'organisme de réglementation afin de garantir que les obligations sont mises en œuvre correctement et dans les limites de la loi. Les experts ont souligné que les services réglementés doivent faire preuve de transparence quant aux demandes qu'ils reçoivent des services d’application de la loi, au nombre de cas qu'ils signalent aux services d’application de la loi et au type de contenu qui est signalé et conservé. Ils ont également suggéré que les mêmes rapports de transparence soient appliqués aux organismes chargés de l'application de la loi, y compris la manière dont ils ont agi sur les informations qui leur ont été communiquées. Quelques experts ont mentionné que les plateformes sont déjà transparentes sur la manière dont elles gèrent les contenus dans leurs conditions de service et les demandes qui leur sont adressées par les services d’application de la loi.

De nombreux experts ont souligné que l'accès aux données est essentiel pour que les chercheurs et la société civile puissent comprendre les éventuels problèmes systémiques. Toutefois, les experts ont également reconnu qu'il sera difficile de donner accès à ces données tout en préservant le droit à la vie privée des utilisateurs. Certains experts ont suggéré de donner accès à des chercheurs agréés à une base de données anonymisée de ces données.

Préoccupations relatives à l'intégration d'exigences en matière d'application de la loi dans un cadre réglementaire

De nombreux experts ont souligné le faible niveau de confiance de certaines communautés à l'égard des services de police, ce qui constitue une considération supplémentaire quant à la manière dont la proposition pourrait être reçue par les Canadiens, y compris par la société civile et les groupes de défense. Ils ont soulevé la préoccupation que, si elles ne sont pas faites de manière réfléchie, ces obligations pourraient avoir des effets d'entraînement sur le reste du cadre.

Prochaines étapes

La prochaine session du groupe consultatif d'experts aura lieu le vendredi 3 juin de 13 h à 16 h (HAE). Les experts discuteront de la désinformation lors de cette session.

Détails de la page

Date de modification :