Résumé de l’atelier de clôture

Le Groupe consultatif d’experts sur la sécurité en ligne a tenu sa dernière séance le 10 juin de 9 h à 14 h HAE. Dix membres étaient présents. La séance s’est déroulée sous forme d’atelier hybride, huit membres participant en personne et deux par vidéoconférence. Des représentants des ministères du Patrimoine canadien, de la Justice, de l’Innovation, des Sciences et du Développement économique, de la Sécurité publique, de Femmes et Égalité des genres, et du Bureau du Conseil privé se sont joints au groupe consultatif. Des représentants de la Gendarmerie royale du Canada étaient également présents.

Ce résumé donne un aperçu de la séance de clôture. Conformément au mandat du Groupe consultatif, ces séances fonctionnent selon la règle de Chatham House. Par conséquent, ce résumé n’attribue pas les points de vue exprimés à un membre du groupe ou à une organisation en particulier. Il présente les points de vue exprimés au cours de la séance, signale les domaines d’accord, de désaccord et de discussion, et organise la discussion en catégories thématiques. Il ne doit pas être considéré comme une récitation verbatim de la discussion.

Les objectifs de la séance étaient les suivants :

  1. Recueillir les principales conclusions des discussions de chaque atelier;
  2. Examiner comment une approche de la sécurité en ligne basée sur le risque pourrait fonctionner dans la pratique;
  3. Approfondir certaines questions centrales restantes;
  4. Recevoir un avis final concernant les prochaines étapes.

L’objectif de cette séance était de faire ressortir l’éventail des opinions sur les questions clés liées à un cadre réglementaire et de clarifier les points d’accord et de désaccord. Il ne s’agissait pas de parvenir à un consensus sur tous les aspects d’un cadre législatif et réglementaire pour la sécurité en ligne.

Ce résumé rend compte des perspectives soulevées par rapport à cet objectif et organise les points de discussion en fonction de thèmes spécifiquesNote de bas de page 1.

Le groupe consultatif d'experts a limité ses activités d'engagement aux réunions avec les représentants du Royaume-Uni, de l'Union européenne et de l'Australie, lesquelles ont eu lieu le 8 juin 2022.

Thème A : Introduction d’un cadre fondé sur le risque

Les experts ont indiqué qu’une approche de la réglementation fondée sur le risque, ancrée dans une obligation d’agir de manière responsable, serait la plus appropriée. Ils ont expliqué que l’obligation d’agir de manière responsable devrait obliger les services réglementés à respecter trois étapes clés. La première étape consisterait pour les services réglementés à recenser et à évaluer les risques posés par leur service. Dans la deuxième étape, les services devraient atténuer ces risques. Troisièmement, les services feraient rapport sur leurs outils d’identification et d’atténuation afin d’assurer la redevabilité. Concernant cette dernière étape, les experts ont souligné la nécessité de mettre en place des exigences de transparence rigoureuses, significatives et sophistiquées. Ils ont expliqué que les informations recueillies dans le cadre de l’étape de responsabilisation serviraient ensuite à alimenter le cycle suivant d’évaluation des risques par les services. Ce cycle favoriserait l’amélioration continue des systèmes et des outils des services visant à réduire le risque qu’ils représentent pour les utilisateurs.

Les experts ont souligné que le cadre législatif et réglementaire doit viser une amélioration significative, et non la perfection. Ils ont expliqué que l’approche fondée sur le risque ne permettrait pas de remédier à tous les incidents liés aux contenus préjudiciables en ligne. Au contraire, ils ont déclaré que ce modèle améliorerait les pratiques générales des services en ligne en matière de gestion des risques. Les experts ont souligné que l’approche devrait impliquer que les services réglementés mettent continuellement l’efficacité de certains outils à l’essai et les adaptent en fonction de leurs résultats. Par exemple, les experts ont expliqué que les services pourraient être contraints d'adopter des considérations de "sécurité par design" lors du développement et de la mise en œuvre de nouvelles fonctionnalités et de la mise à jour et/ou de la modification de fonctionnalités plus anciennes. Cette approche, ont souligné les experts, fournirait des données et des informations que d’autres plateformes, l’organisme de réglementation et les chercheurs pourraient utiliser pour élaborer une approche améliorée de l’atténuation des risques en ligne.

Les experts ont insisté sur le fait qu’un régime de réglementation doit accorder une importance égale à la gestion des risques et à la protection des droits de la personne. Ils ont expliqué que les services réglementés doivent à la fois minimiser le risque posé par leurs services et optimiser les droits et libertés fondamentaux, notamment les droits des peuples autochtones en vertu de l’article 35 de la Loi constitutionnelle, le droit à la vie privé, la liberté d’expression et le droit à l’égalité, entre autres. Les experts ont souligné la nécessité d’équilibrer les droits garantis par la Charte et insistent sur le fait que cet équilibre devrait être inclus dans le préambule de toute nouvelle législation sur la sécurité en ligne.

Les experts ont indiqué que les obligations législatives et réglementaires devraient être flexibles et à l’épreuve du temps pour éviter qu’elles ne deviennent obsolètes. Ils ont insisté sur le fait que la législation ne devrait pas être rendue obsolète par la prochaine avancée technologique. Les experts ont souligné que la législation devrait être neutre sur le plan technologique et se concentrer sur les résultats et les principes plutôt que sur les tâches spécifiques que les entités réglementées devraient accomplir.

Les experts ont affirmé qu’il serait nécessaire d’imposer un devoir spécial de protection des enfants. Ils ont expliqué que les enfants doivent bénéficier de protections renforcées en raison de leur vulnérabilité inhérente, un domaine dans lequel les lois existantes régissant les espaces numériques sont insuffisantes. Ils ont souligné que les services en ligne doivent être obligés d’évaluer et d’atténuer tout risque que leurs services présentent pour les enfants en particulier. Les experts ont évoqué des obligations telles que les outils de sécurité dès la conception, l’instauration de mécanismes de signalement par les utilisateurs, la mise en place d’une voie de recours indépendante pour les utilisateurs et l’introduction d’échéanciers pour le retrait des contenus offensants spécifiquement préjudiciables aux enfants. Certains experts ont mentionné que l’approche australienne pour la sécurité dès la conception pourrait être un bon point de départ pour le Canada.

Les experts ont affirmé la nécessité d’outils non législatifs. Ils ont souligné que la prévention est essentielle et ont insisté sur le fait que l’éducation du public devait être une composante fondamentale de tout cadre. Ils ont suggéré également de mettre en œuvre des programmes visant à améliorer l’éducation aux médias et de développer un concept d’e-citoyenneté par le biais de programmes de sensibilisation dans les écoles et les communautés.

Les experts ont souligné la nécessité d’une approche gouvernementale globale pour faire face aux risques et aux défis liés aux services numériques. Ils ont noté que le droit de la concurrence, la réforme de la protection des renseignements personnels, les réglementations relatives aux données des utilisateurs, l’intelligence artificielle, les algorithmes et le cadre de sécurité en ligne doivent tous travailler ensemble pour imposer une obligation globale d’agir de manière responsable aux services en ligne. Les experts ont expliqué que le fait de considérer ces questions comme des silos séparés les uns des autres serait inefficace et entraînerait une confusion tant pour les utilisateurs que pour les services réglementés. Ils ont souligné la nécessité pour les ministères et les organismes gouvernementaux de travailler en tandem par le biais d’une approche en réseau de la gouvernance en ligne.

Les experts n’étaient pas en accord sur la question de savoir si la législation doit être spécifique ou large quant à la définition des obligations des services réglementés. Certains ont plaidé en faveur d’une approche large et expliquent que l’obligation d’agir de manière responsable évoluerait au fil du temps et qu’il serait donc nécessaire de prévoir une certaine souplesse quant à la manière de s’en acquitter. Ils ont expliqué que l’un des avantages d’une obligation d’agir de manière responsable est qu’elle pourrait être calibrée en fonction du type de service réglementé, chaque service déterminant la meilleure façon de remplir son obligation en fonction de sa propre structure corporative. Ils ont indiqué que des obligations précises nuiraient à la flexibilité de cette approche. Au lieu de cela, des obligations spécifiques pourraient être fixées par le biais de codes de pratique, sur la base de la diligence raisonnable des services réglementés et du cycle de l’approche fondée sur le risque discutée précédemment. D’un autre côté, d’autres experts ont fait valoir que des obligations législatives spécifiques sont nécessaires pour la clarté et la certitude. Sans obligations spécifiques, ces experts ont fait valoir que les services pourraient ne pas savoir ce qu’ils sont censés faire, et que l’organisme de réglementation ne saurait pas non plus quand les services réglementés remplissent leur devoir.

Les experts ont divergé sur la question de savoir si la législation doit obliger les services à retirer du contenu. Certains experts ont exprimé leur inquiétude quant à l’obligation de retirer toute forme de contenu, à l’exception peut-être du contenu qui appelle explicitement à la violence et à l'exploitation sexuelle des enfants. D’autres experts ont exprimé leur préférence pour des obligations de retrait d’un plus large éventail de contenus. Ils ont expliqué qu’il valait mieux pécher par excès de prudence. Ils ont exprimé leur préférence pour un retrait excessif du contenu, plutôt qu’un retrait insuffisant. D’autres experts ont souligné qu’une obligation de suppression de contenu n’est pas compatible avec une approche axée sur la gestion des risques, et pourrait risquer de toucher de manière disproportionnée les groupes marginalisés. Ils ont expliqué qu’au lieu d’être obligés de retirer du contenu, les services seraient obligés de gérer leurs risques, ce qu’ils pourraient faire en retirant du contenu, mais aussi en utilisant d’autres outils. De nombreux experts ont souligné qu’il existe toute une série d’options entre la simple décision de laisser un contenu en ligne ou de le retirer.

Les experts ont souligné que les contenus particulièrement choquants comme les contenus liés à l’exploitation sexuelle des enfants nécessitent une solution spécifique. Ils ont expliqué que l’équité associée au retrait de la pornographie juvénile est différente de celle des autres types de contenu, car le contexte n’a tout simplement pas d’importance pour ce type de matériel. En comparaison, d’autres types de contenus, comme les discours haineux, peuvent bénéficier de la protection de la Charte dans certains contextes. Certains experts ont expliqué qu’une obligation de retrait assortie d’un délai précis serait la plus logique pour les contenus relatifs à l'exploitation sexuelle des enfants.

Les experts n’étaient pas en accord sur la possibilité d’exiger des entités qu’elles surveillent de manière proactive le contenu de leurs services. Certains experts ont mis en garde contre le fait d’exiger ou même d’encourager une surveillance proactive ou générale par les services réglementés. Ils ont indiqué qu’il est très difficile de justifier un tel dispositif, car il introduit des risques pour les droits et libertés fondamentaux prévus par la Charte. D’autres experts ont souligné que les services devraient être obligés de surveiller leurs plateformes, car une telle surveillance, dans de nombreux cas, pourrait effectivement prévenir une attaque violente.

Thème B : Services réglementés

Les experts ont convenu que le régime réglementaire devait s’appliquer à un large éventail de services en ligne, y compris ceux qui se situent au bas de l’échelle technologique. Les experts ont expliqué que le régime doit englober les services qui hébergent des contenus de tiers. Ils ont souligné que le cadre ne doit pas réglementer un individu possédant un blogue personnel en ligne, mais plutôt un service qui héberge plusieurs blogues, en ciblant le rôle « intermédiaire » du service. Ils ont expliqué que cela inclurait des services tels que les magasins d’applications, les services d’hébergement Web et les réseaux de diffusion de contenu.

Les experts ont divergé sur la question de savoir si la protection législative de la responsabilité des intermédiaires devait faire partie de la législation, mais ceux qui étaient en faveur de cette protection ont souligné qu'elle devrait être associée à l’obligation d’agir de manière responsable imposée aux services réglementés. Certains ont expliqué que cela signifierait que la responsabilité juridique du contenu incomberait à la personne qui l’a publié, et non au service qui l’héberge. Toutefois, les experts ont expliqué que les services réglementés agissant en tant qu’intermédiaires seraient également tenus d’agir de manière responsable. Ils ont souligné que le régime ne viserait pas à lutter contre la haine entre un utilisateur et un autre utilisateur, mais plutôt à injecter de la transparence et de la responsabilité dans le fonctionnement des services en ligne. Certains experts ont indiqué aussi qu’il serait nécessaire d’aligner toute loi fédérale sur la responsabilité avec les lois provinciales existantes sur la responsabilité afin d’assurer la constitutionnalité concernant la compétence. D'autres experts ont souligné que les services en ligne devraient être tenus responsables des contenus publiés sur leurs plateformes, et particulièrement des contenus relatifs à l'exploitation sexuelle des enfants.

Les experts n’étaient pas en accord sur la possibilité et la manière d’inclure les communications privées dans un cadre réglementaire. Certains experts ont indiqué qu’il y a une place pour la réglementation des services de communication privée dans ce cadre, dans la mesure où les services fournissent des outils permettant aux utilisateurs de façonner leur expérience en ligne, au lieu de surveiller et de supprimer le contenu des conversations privées. Certains experts ont précisé que les services de communication privés qui portent atteinte aux enfants devraient être réglementés, et devraient, à tout le moins, être obligés de prendre des mesures pour prévenir la diffusion de CSAM connus via la messagerie privée. D’autres experts ont mis l’accent sur les préoccupations relatives au droit à la vie privée des utilisateurs pour expliquer pourquoi la réglementation des services de communications privées serait difficile à justifier du point de vue de la Charte.

Les experts n’étaient pas en accord sur la possibilité d’adapter les obligations réglementaires en fonction du risque posé par le service. Certains experts ont souligné que le devoir d’agir de manière responsable devrait s’appliquer à tous les intermédiaires en ligne, mais que les obligations spécifiques devraient être proportionnées au risque posé par le service. En ce qui concerne l’évaluation du risque, les experts ont souligné que les obligations ne devraient pas être adaptées en fonction de la taille. Ils ont expliqué que le risque devrait plutôt être basé sur le modèle d’affaires du service. En revanche, d’autres experts ont souligné que les mêmes obligations générales en termes de respect du devoir d’agir de manière responsable devraient s’appliquer à toutes les entités réglementées, indépendamment de leur modèle d’affaires ou de leur taille. Ils ont expliqué que dans le cadre d’une obligation générale d’agir de manière responsable, chaque entité réglementée pourrait calibrer sa propre approche sans avoir besoin d’obligations spécifiques liées à son modèle d’affaires.

Thème C : Définition du préjudice

Les experts ont souligné que certaines formes de préjudice sont extrêmement difficiles à définir, mais qu’elles devraient néanmoins être prises en compte par un régime réglementaire. Certains experts ont évoqué le concept de « violence lente », c’est-à-dire un contenu qui, placé dans un certain contexte social, comme les théories du complot, devient dangereux avec le temps. Ils ont expliqué qu’en soi, ce type de contenu n’enfreint pas les conditions de service, mais que collectivement, dans un contexte plus large, il peut conduire à la violence en se radicalisant ou en incitant à la haine, voire à la violence. D’autres ont expliqué qu’il existe de nombreux contenus qui, à première vue, ne sont pas dangereux. Ils ont pris pour exemple les images d’exploitation sexuelle des enfants. Ils ont expliqué qu’il existe des vidéos d’abus coupées en plusieurs images différentes qui, à elles seules, ne dépeignent pas un préjudice apparent. Mais lorsqu’elles sont assemblées, le préjudice est clair et apparent. Les experts ont souligné qu’il serait difficile de définir ce type de contenu dans la législation, mais que le préjudice associé à ce contenu mérite d’être pris en compte dans un cadre législatif et réglementaire.

Les experts ont souligné l’importance de formuler la législation de manière positive, en mettant l’accent sur la promotion des droits de la personne, l’amplification des « bons » contenus, la protection des enfants et d'autres groupes vulnérables, et la responsabilisation des utilisateurs. Ils ont fait valoir que l’objectif ultime du régime devrait être de modifier l’équilibre des contenus en ligne en faveur de la « communication positive », en faveur de la « communication préjudiciable ».

Les experts ont indiqué que le cadre doit prendre en compte les préjudices qui ne sont pas nécessairement associés au contenu. Certains experts ont souligné que tous les préjudices ne sont pas liés au contenu – les préjudices peuvent également provenir du comportement des utilisateurs et des préjugés systémiques. Ils ont examiné comment les acteurs peuvent manipuler les plateformes pour diffuser des récits nuisibles, trompeurs ou manipulateurs en utilisant des robots, par exemple. Ils ont cité également des recherches montrant que les femmes ne voient pas autant d’annonces en ligne pour des emplois dans le domaine scientifique que les hommes. Les experts ont souligné que les préjudices systémiques de cette nature vont au-delà du contenu et qu’il est impératif d’en tenir compte. Ils ont expliqué que les services en ligne utilisent des algorithmes et d’autres outils d’intelligence artificielle qui perpétuent les préjugés et portent préjudice aux utilisateurs. Ils ont suggéré que des obligations concernant la responsabilité algorithmique soient introduites.

Les experts n’étaient pas en accord sur l’utilité des cinq catégories de contenus préjudiciables précédemment recensées dans la proposition du gouvernement pour 2021. Ces cinq catégories comprennent les discours haineux, les contenus terroristes, l’incitation à la violence, l’exploitation sexuelle des enfants et le partage non consensuel d’images intimes. De nombreux experts ont souligné que les contenus relatifs à l'exploitation sexuelle des enfants et les contenus qui incitent au terrorisme sont particulièrement préjudiciables aux Canadiens et doivent être traités sans ambiguïté par la future législation. Certains experts ont envisagé de définir une série de responsabilités spécifiques pour ces cinq types de contenus associées à des obligations moins spécifiques pour les contenus au-delà de ces cinq catégories. D’autres experts ont considéré que les cinq catégories étaient profondément problématiques, arguant qu’elles sont perçues comme perpétuant les préjugés présents dans les dispositions correspondantes du Code criminel. Par exemple, ils ont exprimé que la définition du terrorisme pose un problème, car elle traite presque exclusivement de la terreur islamique et omet les autres formes de terrorisme.

Les experts ont divergé sur la manière de définir le préjudice dans un cadre réglementaire fondé sur le risque. Certains ont fait valoir que la législation devrait s’écarter d’une approche qui désigne des types spécifiques de contenus préjudiciables. Ils ont plutôt fait valoir que le préjudice pourrait être défini de façon plus large, comme le préjudice causé à un segment particulier de la population, comme les enfants, les personnes âgées ou les groupes minoritaires. Ils ont expliqué que si le régime doit spécifier des types de contenu, ces types devraient être utilisés comme des exemples de ce que pourrait être un contenu préjudiciable, et non comme des catégories définies. Les experts ont souligné également que de nouvelles catégories de préjudice peuvent apparaître à l’avenir et que le fait de spécifier des types de contenu préjudiciable risque de rendre la législation rapidement obsolète. D’autres experts n’étaient pas d’accord, affirmant que les services réglementés doivent avoir une idée de ce que signifie le préjudice pour savoir ce qu’ils doivent faire pour se conformer aux nouvelles règles. Ils ont examiné également la question de savoir comment la question de la définition du contenu préjudiciable s’inscrit dans le contexte de l’application de la loi. Ils ont souligné que, si les services sont obligés de conserver et de communiquer des données aux forces de l’ordre, ces dernières devront disposer de définitions claires afin de savoir quand le contenu est communiqué ou conservé à des fins d’enquête. Parmi les experts qui préconisent une définition spécifique du préjudice, certains ont suggéré de se concentrer sur ce que le contenu préjudiciable fait ou pourrait faire, par opposition à une définition fixe. En d’autres termes, ils ont proposé de se concentrer sur les effets probables d’un contenu donné plutôt que de fournir une définition spécifique.

Les experts ont souligné qu’il faut agir contre la désinformation, mais ils ont reconnu qu’il est difficile d’en définir l’ampleur et la portée. Ils ont convenu que la désinformation a de graves conséquences immédiates, à moyen et à long terme. Ils ont discuté de la manière dont la désinformation peut être utilisée pour inciter à la haine et à la violence, miner la démocratie et le discours démocratique, réduire la confiance entre les citoyens et menacer la sécurité nationale et la santé publique. Cependant, ils ont exprimé également une extrême prudence à l’égard de la définition de la désinformation dans la législation pour un certain nombre de raisons, notamment parce que cela mettrait le gouvernement en position de distinguer le vrai du faux, ce qu’il ne peut tout simplement pas faire. Au lieu de définir la désinformation dans la législation, certains experts ont fait valoir que la législation pourrait se concentrer sur les effets néfastes de la désinformation ou sur certains comportements associés à la désinformation, comme la manipulation coordonnée à l’aide de robots et de réseaux de robots.

Thème D : Pouvoirs réglementaires

Les experts ont souligné que l’organisme de réglementation devait être doté de solides pouvoirs d’audit et d’exécution. Ils ont convenu que l’organisme de réglementation doit être en mesure d’auditer les services, de prélever des sanctions administratives pécuniaires (SAP) et d’émettre des ordonnances de conformité. Ils ont fait valoir que sans de solides pouvoirs d’exécution, il serait très difficile, voire impossible, pour un organisme de réglementation de promouvoir la conformité. Les experts ont insisté sur le fait que des conséquences claires devaient être prévues pour les services réglementés qui ne remplissent pas leurs obligations.

Les experts ont souligné que l’organisme de réglementation doit disposer de ressources suffisantes pour réussir. Certains experts ont fait valoir qu’en plus des ressources pour la conformité et l’application, un nouvel organisme de réglementation a besoin d’une capacité suffisante pour recueillir, comprendre et analyser les données complexes provenant des services réglementés. Pour renforcer cette capacité, certains experts ont suggéré que le cadre fasse appel à la communauté des chercheurs pour évaluer également les données et les informations recueillies par le biais des rapports de transparence. Ils ont proposé que la coordination internationale entre les organismes de réglementations soit un autre moyen de renforcer la capacité réglementaire. Les experts ont aussi fait valoir que si l’organisme de réglementation est chargé de développer des moyens novateurs pour lutter contre les préjudices, il devra disposer des ressources nécessaires pour le faire.

Les experts ont indiqué que les codes de pratique sont essentiels et certains ont affirmé qu’ils devraient être élaborés conjointement avec l’industrie et les autres intervenants. De nombreux experts ont souligné l’importance d’une approche multipartite pour élaborer les obligations imposées aux services réglementés. Ils ont expliqué que cette approche peut être réalisée par le biais de codes de pratique ou de lignes directrices élaborés conjointement par l’organisme de réglementation et les intervenants, qui décrivent comment les services réglementés peuvent remplir leurs obligations réglementaires. De nombreux experts se sont mis d’accord également sur l’utilisation de tables rondes où un groupe de représentants de l’industrie, d’organisations communautaires, de groupes de défense des victimes et de représentants du gouvernement se réuniraient régulièrement pour discuter des rapports de transparence reçus, envisager des scénarios et aider à promouvoir les normes et les pratiques exemplaires. Les experts ont expliqué que de tels exercices sur table contribueraient à renforcer le système de collaboration entre ces acteurs et à promouvoir une approche réglementaire qui s’améliorerait et évoluerait en permanence. D’autres experts ont parlé d’un organe consultatif qui aiderait à élaborer les pratiques exemplaires, lesquelles pourraient ensuite servir de base à des codes de pratique. Certains experts ont souligné que les motivations et les intérêts de l'industrie sont autres et ont exprimé leur scepticisme quant à la participation de l'industrie à des décisions importantes ayant un impact sur la sécurité, compte tenu de ces différences et du déséquilibre de pouvoir entre les groupes de défense des victimes et l'industrie. Ils ont souligné l'importance d'un organisme de réglementation indépendant et la nécessité que cet organisme établisse des normes minimales libres de toute influence de l'industrie.

Thème E : Aide aux victimes

Les experts ont affirmé la nécessité d’imposer un processus de révision et d’appel des contenus au niveau de la plateforme. Certains experts ont convenu d’exiger des services réglementés qu’ils disposent à la fois d’une procédure d’appel pour les décisions de modération de contenu et qu’ils mettent en place un médiateur interne pour aider les victimes qui ont besoin de conseils concernant un contenu problématique ou le comportement de la plateforme. Les experts ont convenu que, dans le cadre de leur devoir d’agir de manière responsable, ces mécanismes d’appel devraient être efficaces, efficients et conviviaux, et qu’un médiateur interne devrait soutenir et guider les utilisateurs tout au long de cette procédure d’appel. D'autres experts ont exprimé des inquiétudes quant à l'indépendance d'un "ombudsman interne" et ont souligné la nécessité d'un défenseur numérique indépendant.

Les experts ont souligné que les groupes historiquement marginalisés devraient être protégés de toute conséquence involontaire d’un nouveau cadre réglementaire. Ils ont insisté pour que les obligations imposées aux services réglementés, ainsi que les outils mis à la disposition des utilisateurs, prennent en compte la meilleure façon de protéger les communautés marginalisées. Ils ont expliqué que de tels outils pourraient potentiellement entraîner des conséquences involontaires sur les communautés marginalisées et diverses ou pourraient être biaisés à leur encontre si l’on n’y prend pas suffisamment garde. D'autres experts ont noté que les communautés historiquement marginalisées, telles que les enfants, les femmes et les communautés LGBTQ2, sont également celles qui ont été lésées de manière disproportionnée par l'absence de cadre réglementaire à ce jour.

Les experts ont recommandé la création d’un médiateur pour l’aide aux victimes, indépendant du gouvernement, des services en ligne et de l’application de la loi. Ils ont examiné comment un médiateur pourrait jouer un rôle d’intermédiaire utile entre les utilisateurs et l’organisme de réglementation. Ils ont souligné qu’un médiateur indépendant pourrait aider les utilisateurs en les conseillant, en leur fournissant une assistance technique et en leur expliquant comment déposer une plainte. Ils ont expliqué que ce médiateur pourrait recueillir des données sur les questions les plus pressantes pour les utilisateurs et les victimes, et que cette information pourrait aider l’organisme de réglementation dans ses rôles de surveillance et d’enquête et éclairer l’élaboration de codes de pratique. Certains ont suggéré que le régime pourrait commencer par un médiateur qui servirait de plaque tournante pour l’aide aux victimes, et se transformerait en un organisme qui trancherait les litiges plus tard, si cela est jugé nécessaire. Les experts ont expliqué que ce médiateur serait indépendant du commissaire à la sécurité numérique. Ils ont insisté sur le fait que le médiateur fournirait des informations au commissaire à la sécurité numérique sur les plaintes reçues, et que le commissaire devrait être doté de pouvoirs d’audit et d’exécution pour enquêter davantage et imposer la conformité si nécessaire.

Les experts ont exprimé leur préférence pour le terme « ombudsperson », ou défenseur public, plutôt que « conseil de recours ». Ils ont souligné que le terme « ombudsperson » est largement compris par les gens et avec lequel ils sont à l'aise. D’autres experts ont suggéré le terme « défenseur public » et ont avancé l’idée d’introduire un défenseur public pour les questions numériques au Canada, un organisme chargé de recevoir les plaintes, d’entendre les victimes et de rédiger des rapports périodiques rendant ces plaintes publiques. Dans les deux cas, les experts ont convenu que si un organisme de recours devait être créé, il serait nécessaire d’utiliser un terme que les Canadiens peuvent comprendre et avec lequel ils se sentent à l’aise.

Les experts n’étaient pas en accord sur la nécessité d’introduire un recours indépendant pour revoir les décisions des plateformes. Certains experts ont souligné que la question n’est pas de savoir s’il faut imposer un organisme externe pour prendre des décisions de retrait, mais plutôt de savoir comment soutenir au mieux les utilisateurs qui n’ont nulle part où se tourner. Ils ont expliqué qu’en vertu du cadre, les services disposeraient de leurs propres mécanismes internes de plainte et de transparence. Cependant, selon eux, les victimes ont souvent l’impression que les plateformes n’écoutent pas leurs plaintes, qu’elles sont toujours lésées et que le contenu qu’elles signalent n’est pas pris en compte. Ils ont expliqué que les victimes ont besoin d’un lieu pour exprimer leurs préoccupations. Les experts ont souligné que ce soutien peut être obtenu sans créer une autorité de suppression des contenus. Ils ont insisté sur le fait que la création d’un organisme indépendant chargé de prendre les décisions de retrait serait une entreprise de grande envergure, qui reviendrait à créer un système quasi judiciaire entièrement nouveau, avec des problèmes constitutionnels majeurs liés au fédéralisme et à la Charte. D’autres experts ont fait valoir que les utilisateurs ont besoin de recours plus significatifs et d’un accès suffisant à la justice. Ces experts ont fait valoir qu’il doit y avoir un organisme chargé de prendre les décisions relatives au retrait afin d’aider efficacement les victimes. Sur ce dernier point, certains experts ont suggéré qu’il devrait y avoir un lien entre le médiateur et les tribunaux, le premier pouvant porter des plaintes au nom des victimes devant les seconds. Certains experts ont suggéré également que la nouvelle législation encourage les tribunaux à mener leurs activités en ligne de manière efficace et à fournir des solutions rapides aux victimes.

Les experts qui ont préconisé la création d’un organisme chargé de prendre les décisions relatives au retrait de contenu étaient en désaccord sur les seuils à retenir pour prendre ces décisions. Certains experts étaient favorables à des décisions de retrait dans des circonstances très limitées. Ils ont suggéré d’instituer des organes de recours distincts pour certains types de contenus, comme les contenus relatifs à l’exploitation sexuelle des enfants et le partage non consensuel d’images intimes. Certains experts ont indiqué qu’il devrait y avoir deux catégories de préjudice, la catégorie la plus grave et criminelle serait soumise à un recours indépendant, tandis que l’autre catégorie de préjudice ne le serait pas. D’autres experts ont suggéré que le seuil du recours indépendant soit fixé lorsque l’entité réglementée applique son propre code de conduite. À ce moment-là, ont expliqué les experts, un utilisateur pourrait s’adresser à un organisme de recours qui donnerait sa propre interprétation pour déterminer si le service a agi d’une manière conforme à son propre code de conduite ou non.

Les experts n’étaient pas en accord sur la faisabilité d’un organe décisionnel pour le retrait des contenus. Certains experts ont exprimé leur inquiétude quant au volume de contenu qu’un organisme indépendant aurait à traiter. Ils ont expliqué que l’organe ne serait pas en mesure de prendre des décisions à une vitesse correspondant aux attentes des utilisateurs. D’autres experts ont fait valoir que le gouvernement ne peut pas attendre des plateformes qu’elles traitent des volumes élevés de contenu tout en affirmant qu’un organisme de réglementation ne peut pas traiter un tel volume. D’autres experts ont reconnu que le volume est un réel obstacle à la mise en place d’un recours indépendant efficace et qu’aucune solution réelle n’a émergé pour juger de manière efficace et efficiente le volume élevé de contenu qui se présente dans l’espace en ligne. Ils ont souligné toutefois qu’au lieu d’abandonner purement et simplement l’idée, il faut la développer et la tester davantage.

Les experts n’étaient pas en accord sur la question de savoir si une instance de recours aurait également le pouvoir d’obliger le rétablissement du contenu. Certains experts ont indiqué qu’un tel pouvoir serait nécessaire. D’autres ont souligné toutefois qu’un tel outil ne devrait être fourni que s’il était légal, ils ont expliqué que le fait de contraindre un discours pouvait poser des problèmes au regard de la Charte et qu’une analyse plus approfondie sur ce sujet serait nécessaire avant d’accorder un tel pouvoir.

Thème F : Application de la loi et réponse aux crises

Les experts ont souligné que certaines communautés marginalisées ont peu confiance dans les forces de l’ordre, ce qui alimente la crainte que l’obligation de signaler certains contenus aux forces de l’ordre ou de les conserver pour les enquêtes criminelles n’entraîne une surveillance excessive de ces communautés. Les experts ont fait part de leurs préoccupations concernant des questions telles que les communautés marginalisées qui sont ciblées de manière disproportionnée par la police, leur surreprésentation dans le système carcéral et les préjugés existants dans les infractions au Code criminel, par exemple dans la définition du terrorisme. Les experts ont expliqué que les obligations de signalement obligatoire ont le potentiel d’augmenter les interactions nuisibles de la police avec les communautés marginalisées lorsqu’aucun crime n’a été commis. Ils ont expliqué que le fait de fixer un seuil de risque imminent de préjudice pour les obligations de signalement et de conservation pourrait mener à une surveillance excessive du contenu. Certains ont suggéré que toute obligation de signalement aux forces de l’ordre ou de conservation devrait être fondée sur des connaissances réelles, afin d’éviter une intervention policière excessive et des problèmes de confidentialité, en particulier pour les communautés marginalisées. Certains experts ont indiqué que la déclaration obligatoire de la pornographie juvénile devrait continuer à être traitée séparément en vertu de la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent un service Internet, et devrait être modifiée pour refléter l'évolution de la façon dont ce contenu est produit et diffusé en ligne.

Les experts ont souligné qu’un protocole d’incident critique devrait faire partie d’un cadre réglementaire, et que les contenus entrant dans ce cadre doivent être soigneusement gérés après l’incident lui-même. Ils ont souligné l’importance d’empêcher que les mêmes copies de certaines vidéos, comme les atrocités diffusées en direct, et les abus sexuels d’enfants, soient à nouveau partagées. Les experts ont souligné que de nombreux services de partage de fichiers permettent aux contenus de se propager très rapidement. Ils ont fait valoir que la réglementation du partage de liens Dropbox spécifiques et d’autres URL serait un moyen efficace de résoudre ce problème.

Les experts n’étaient pas en accord sur la question de savoir si le signalement obligatoire aux forces de l’ordre ou la conservation obligatoire devraient faire partie du cadre de sécurité en ligne. Certains s’inquiètent du fait que, si elles ne sont pas bien conçues, ces obligations pourraient entraîner des répercussions sur le reste du cadre. Ils ont fait valoir que des exigences étendues en matière de signalement et de conservation des données, ainsi que les mécanismes de détection automatisée correspondants, pourraient constituer un risque pour les renseignements personnels des utilisateurs et inciter à un système général de surveillance. D’autres experts ont souligné que les forces de l’ordre doivent disposer des outils nécessaires pour pouvoir mener à bien leurs enquêtes.

Détails de la page

Date de modification :