Ce que nous avons entendu : tables rondes sur la sécurité en ligne 2022

Sur cette page

Résumé

Entre juillet et novembre 2022, le ministre du Patrimoine canadien et ses représentants ont tenu 19 tables rondes sur les principaux éléments d’un cadre législatif et réglementaire sur la sécurité en ligne. Au total, 13 tables rondes régionales et six tables rondes thématiques sur l’antisémitisme, l’islamophobie, le racisme envers les personnes noires, le racisme envers les personnes asiatiques, la violence fondée sur le sexe et les grandes entreprises de la technologie ont eu lieu entre juillet et novembre 2022. Les participants ont également été appelés à donner leur avis sur les conseils du Groupe consultatif d’experts sur la sécurité en ligne qui a terminé ses réunions le 10 juin. Les commentaires recueillis des participants ont porté sur plusieurs domaines principaux liés à la sécurité en ligne, lesquels sont décrits ci-dessous.

Rôle du gouvernement dans la promotion de la sécurité en ligne

Il y a eu un consensus et un accord général sur la nécessité d’une action gouvernementale pour assurer la sécurité en ligne. Les participants ont reconnu que les préjudices se produisaient principalement sur les plateformes de médias sociaux, où les Canadiens sont les plus connectés. La plupart des participants ont reconnu la nécessité que la future loi comporte des mesures d’application rigoureuses pour changer le fonctionnement des services en ligne et les rendre responsables des préjudices qui ont lieu sur leurs plateformes. Les participants ont exprimé le désir qu’un organisme de réglementation de la sécurité en ligne soit inclusif pour les communautés marginalisées et accessible au public. Ils préféraient également un organisme de réglementation indépendant qui ne risquerait pas d’exercer une influence gouvernementale, comme l’a recommandé le Groupe consultatif d’experts. Pour les participants, il était essentiel de veiller à ce que l’organisme de réglementation dispose de ressources adéquates, car bon nombre d’entre eux estimaient qu’il était essentiel de permettre à l’organisme de réglementation d’assurer la conformité et d’offrir aux Canadiens un service rapide et de grande qualité.

Responsabilité des plateformes en ligne

Les participants croient que les plateformes en ligne ont la responsabilité d’assurer la sécurité des utilisateurs en ligne étant donné leur rôle dans la création, le partage et la promotion du contenu. Les participants ont signalé la vitesse à laquelle un utilisateur peut être inondé de contenu indésirable en raison des algorithmes de la plateforme. Les participants ont exprimé leur scepticisme quant à la capacité des plateformes de médias sociaux à autoréglementer le contenu sur leurs plateformes. De nombreux participants ont cité les modèles d’affaires des plateformes de médias sociaux comme un obstacle à l’autoréglementation, car ils sont dictés par le trafic et les opinions sur les sites. Les participants se sont dits préoccupés par le manque de processus de vérification des utilisateurs.

Les participants ont exprimé leur frustration quant au manque de transparence dans la façon dont les plateformes modèrent leur contenu. Les participants ont indiqué ne pas savoir comment les plateformes gèrent le contenu préjudiciable, car il y a un manque d’information concernant les décisions de modération du contenu et comment le contenu signalé par les utilisateurs est traité par les plateformes. Cela a amené de nombreux participants à exprimer des sentiments tels que l’impuissance et la confusion quant à l’endroit et la personne vers qui se tourner pour un recours. De nombreux participants ont mentionné qu’ils n’avaient souvent aucun retour des plateformes lorsqu’ils signalaient du contenu ou soumettaient des plaintes, seulement pour voir le contenu qu’ils signalaient demeurer sur la plateforme, sans modération. Les participants étaient favorables à l’approche fondée sur les risques proposée par le Groupe consultatif d’experts, car plusieurs croyaient que cette approche pourrait accroître la transparence et clarifier la façon dont les plateformes gèrent les contenus préjudiciables. Certains participants se sont demandé si l’approche serait suffisante pour accroître la transparence ou si des mesures supplémentaires seraient nécessaires.

Soutien accru aux victimes de préjudice en ligne

Les participants ont partagé leurs expériences relatives aux répercussions des préjudices en ligne sur les victimes. De nombreux participants ont décrit les conséquences concrètes du contenu préjudiciable pour les victimes, y compris les dommages physiques, les atteintes à la réputation et les conséquences pour la santé mentale des victimes. Les participants ont noté les répercussions disproportionnées des préjudices en ligne sur les communautés marginalisées.

Les participants se sont dits préoccupés par l’insuffisance du soutien actuel aux victimes de préjudice en ligne, la plupart des participants faisant état d’un manque de ressources au sein de leur communauté locale. Les participants ont exprimé le désir d’obtenir des ressources plus importantes conçues spécifiquement pour les victimes de préjudice en ligne, comme des systèmes de signalement plus solides pour le contenu préjudiciable et un ombudsman qui pourrait défendre les victimes et traiter les plaintes anonymes. Les participants ont fait remarquer que si un ombudsman était créé, il faudrait qu’il dispose de ressources suffisantes et qu’il ait une sensibilité culturelle pour traiter le contenu sensible culturellement. Le besoin et le désir d’obtenir un plus grand soutien pour les victimes correspondent à la conclusion de nombreux experts de créer un ombudsman pour les victimes.

Protection des enfants et des jeunes

Les participants se sont largement entendus sur l’importance de protéger les enfants et les jeunes contre les préjudices en ligne. Les participants ont mentionné la vulnérabilité des jeunes face à la désinformation, au leurre en ligne et au partage inapproprié d’images intimes comme trois sujets de préoccupation. L’incidence des préjudices en ligne sur la santé mentale des jeunes était une préoccupation importante, de nombreux participants fournissant des témoignages de première main de jeunes qui étaient en détresse en raison de contenus préjudiciables.

Les participants ont souligné les défis auxquels font face les parents pour protéger les jeunes. Ils ont souligné à quel point il est facile pour les jeunes de créer des comptes de médias sociaux et d’interagir en ligne à leur insu. De nombreux participants ont suggéré que les plateformes ont l’obligation d’accroître la sécurité en ligne en adoptant des mesures comme un contrôle parental accru ou des fonctionnalités conçues en fonction de l’âge. Les opinions exprimées par les participants sont alignées avec la recommandation des experts selon laquelle les plateformes devraient avoir une obligation spéciale de protéger les enfants en raison de leur vulnérabilité aux risques de l’espace en ligne.

Accroître l’éducation sur la sécurité en ligne

Les participants se sont largement entendus sur la nécessité d’une meilleure éducation sur la sécurité en ligne et la littératie numérique. Les participants ont fait remarquer qu’il y a actuellement un manque de sensibilisation et de connaissances sur la façon dont les Canadiens peuvent se protéger en ligne. Les participants ont suggéré le lancement d’initiatives éducatives ciblant des groupes vulnérables spécifiques, comme les jeunes et les communautés d’immigrants. Les participants ont souligné l’importance de rendre les ressources et l’information en matière de sécurité en ligne facilement accessibles afin de sensibiliser davantage le public sur la façon d’être en sécurité en ligne. Les opinions exprimées par les participants s’harmonisent avec les conseils du Groupe consultatif d’experts en vue d’intégrer l’éducation du public comme une composante fondamentale de tout cadre législatif sur la sécurité en ligne.

Rôle des organisations d’application de la loi pour assurer la sécurité en ligne

Les participants ont reconnu les limites auxquelles les organismes d’application de la loi font actuellement face pour traiter les cas de préjudice en ligne, y compris les contraintes de ressources et les restrictions sur la collecte de données provenant des plateformes. Certains participants ont exprimé des réserves quant à la possibilité d’accorder d’autres pouvoirs aux organismes d’application de la loi dans la future loi sur la sécurité en ligne en raison de préoccupations qui incluent le risque de discrimination à l’égard des communautés marginalisées, les antécédents en matière de traitement des cas liés à la haine, au harcèlement et autres préjudices en ligne, et la façon dont les données de médias sociaux pourraient être utilisées par les organismes d’application de la loi. Certains participants ont également exprimé de fortes réserves quant à l’inclusion des forces de l’ordre dans la future loi en raison du manque de sensibilité culturelle qu’elles ont démontré à l’égard de certains segments de la population. De nombreux participants ont décrit leur frustration de ne voir aucune mesure prise après avoir signalé des cas de préjudice en ligne aux organismes d’application de la loi.

Introduction

Le 3 février 2022, le ministère du Patrimoine canadien a publié le rapport : Ce que nous avons entendu : Approche proposée du gouvernement pour s’attaquer au contenu préjudiciable en ligne qui résume les réponses reçues au cours des consultations publiques en ligne effectuées pendant l’été et l’automne 2021. Bien que les Canadiens aient exprimé le désir que le gouvernement du Canada prenne des mesures pour tenir les plateformes responsables du contenu qu’elles hébergent, ils ont également cerné un certain nombre de préoccupations générales liées à la liberté d’expression, aux droits à la vie privée et à l’incidence de la proposition sur certains groupes marginalisés.

En mars 2022, le ministre du Patrimoine canadien a mis sur pied un groupe consultatif d’experts sur la sécurité en ligne afin de conseiller le gouvernement sur la façon d’intégrer les commentaires reçus lors de la consultation nationale de 2021 et sur la meilleure façon de concevoir le cadre législatif et réglementaire pour lutter contre le contenu préjudiciable en ligne.

Tout au long de ses dix ateliers, le Groupe consultatif d’experts a décrit plusieurs considérations pour la conception d’un nouveau cadre législatif et réglementaire pour la sécurité en ligne. Une fois les travaux du Groupe consultatif terminés, le ministre du Patrimoine canadien a voulu obtenir l’opinion des Canadiens sur les conclusions du Groupe consultatif.

À compter de juillet 2022, une série de tables rondes en personne et en virtuel ont été organisées à l’échelle du Canada avec des participants de groupes représentant des victimes, des communautés religieuses et dignes d’équité, les femmes, la communauté 2ELGBTQI+, les jeunes et les Autochtones. Les tables rondes avaient pour but d’écouter et de comprendre la perspective des victimes et des plateformes technologiques sur les conclusions du groupe d’experts et les éléments de l’approche proposée fondée sur le risque.

Chaque table ronde a commencé par un aperçu donné par le ministre ou son représentant sur le travail réalisé à ce jour par Patrimoine canadien sur la sécurité en ligne. Après l’aperçu, les participants étaient en mesure d’exprimer leurs commentaires. Un représentant de Patrimoine canadien était présent pour faciliter la discussion et répondre aux questions soulevées pendant la table ronde.

En prévision de la table ronde, le ministère a remis aux participants un document d’information contenant un aperçu du travail que Patrimoine canadien avait accompli jusqu’à ce jour sur la sécurité en ligne. Les participants ont reçu les questions ci-dessous pour se préparer à leur table ronde.

  1. Pourquoi avez-vous décidé de vous joindre à nous aujourd’hui dans cette table ronde?
  2. Qu’espérez-vous tirer de cette table ronde?
  3. Avez-vous déjà été victime du contenu préjudiciable en ligne? Quels types de contenu préjudiciable vous préoccupent-ils le plus?
  4. Sur quelles plateformes pensez-vous que ces contenus préjudiciables sont les plus présents?
  5. Selon vous, quels types de plateformes ou de services en ligne posent le plus grand risque de préjudice aux Canadiens et devraient être réglementés?
  6. Les plateformes devraient-elles être traitées comme tout autre produit en identifiant les risques et en les atténuant?
  7. Un nouvel organisme de réglementation de la sécurité en ligne devrait-il avoir le pouvoir d’ordonner que des éléments de contenu précis soient retirés des plateformes? Dans l’affirmative, à quels types de contenu ce pouvoir devrait-il s’appliquer?
  8. Les services en ligne devraient-ils être tenus de signaler aux organismes d’application de la loi du contenu qui, selon eux, est susceptible d’être accusé d’infraction criminelle?

Le résumé qui suit donne un aperçu des points de vue exprimés au cours de chaque table ronde; présente les points sur lesquels il y avait une entente, des désaccords et des discussions; et organise la discussion sous des catégories thématiques. Le résumé ne doit pas être considéré comme un compte rendu textuel des discussions.Note de bas de page 1

Tables rondes régionales

Charlottetown (Île-du-Prince-Édouard)

La première table ronde régionale a eu lieu le 8 juillet à Charlottetown (Île-du-Prince-Édouard). Les participants ont discuté d’un éventail de questions liées à la sécurité en ligne, y compris les responsabilités des plateformes de médias sociaux relativement à la lutte contre les préjudices en ligne, les conséquences des préjudices en ligne sur les victimes et le rôle que la future loi pourrait avoir dans la promotion de la sécurité en ligne.

La plupart des participants étaient frustrés par les incohérences dans la façon dont les plateformes de médias sociaux traitent le contenu signalé. Les participants ont décrit des cas où le contenu signalé n’a pas été supprimé ou des cas où un contenu plus préjudiciable est resté tandis que d’autres contenus moins préjudiciables ont été supprimés, ce qui a entraîné une incertitude quant à l’application des normes que les plateformes de médias sociaux suivent. Quelques participants ont noté que les personnes qui publient en ligne adaptent leur contenu pour éviter d’être signalées par les systèmes de modération des médias sociaux.

Les participants étaient également préoccupés par le temps nécessaire pour que le contenu signalé soit supprimé par les plateformes. Les participants craignaient que le retard dans l’examen du contenu signalé puisse entraîner la diffusion à un grand groupe d’utilisateurs avant qu’il ne soit supprimé. Quelques participants ont mentionné que du contenu préjudiciable pouvait être téléchargé ou filmé avant d’être supprimé.

Certains participants ont mentionné le modèle d’affaires des plateformes de médias sociaux comme un obstacle potentiel à la résolution efficace du contenu préjudiciable en ligne. Les participants étaient sceptiques quant à la volonté des plateformes de médias sociaux d’autoréglementer le contenu de leurs plateformes en raison de la fréquentation du site et des revenus que le contenu peut générer.

Les participants ont exprimé un malaise par rapport au niveau de renseignements personnels que les plateformes de médias sociaux divulguent. Selon eux, la divulgation de renseignements personnels, comme les données d’emplacement et les coordonnées, peut mener des personnes à être directement ciblées par des inconnus en ligne. Les participants ont signalé des cas de membres de la communauté qui reçoivent des menaces directes et ont signalé que des préjudices en ligne peuvent se produire sur différentes plateformes en ligne, comme les sites d’évaluation en ligne, par l’entremise d’évaluations négatives ciblées.

Pour de nombreux participants, il était essentiel de s’attaquer au partage inapproprié d’images intimes. De nombreux participants ont fait remarquer que le partage de ces images a des répercussions sur la santé mentale des victimes et particulièrement celle des jeunes. Les participants ont exprimé des préoccupations quant à l’absence de recours, y compris de recours juridiques disponibles pour permettre aux victimes de lutter contre ce problème.

Certains participants ont exprimé le désir que les plateformes de médias sociaux adoptent davantage de processus de vérification pour les utilisateurs. Toutefois, quelques participants ont soulevé des préoccupations au sujet des obstacles potentiels que ces systèmes pourraient créer pour les petites organisations, comme les organismes à but non lucratif.

Quelques participants croient que la loi sur la sécurité en ligne devrait être avant-gardiste, pour inclure les futures plateformes technologiques, et comprendre des définitions claires sur les responsabilités et les obligations des plateformes en ligne dans la lutte contre les préjudices en ligne. Les participants ont fait remarquer qu’il y a actuellement de l’incertitude quant aux responsabilités juridiques des plateformes en ligne en ce qui concerne la lutte contre les préjudices en ligne.

Les participants ont appuyé la création d’un organisme de réglementation de la sécurité en ligne. Quelques participants ont suggéré que l’organisme de réglementation devrait inclure les communautés marginalisées et qu’un conseil consultatif auprès de l’organisme de réglementation soit créé pour représenter leur point de vue. Quelques participants ont indiqué que l’organisme de réglementation devrait avoir un personnel formé sur les traumatismes lorsqu’il travaille avec les victimes au lieu de compter entièrement sur des systèmes automatisés.

Les participants ont souligné l’importance de mettre en place des mesures d’application solides pour accompagner les règlements proposés. Les participants croient que l’efficacité de la loi proposée dépend des mécanismes d’application qui y sont associés. Il a été noté que les organismes d’application de la loi n’ont pas les ressources et les capacités nécessaires pour traiter efficacement les cas de préjudice en ligne.

Il y avait un large consensus sur l’importance d’accroître l’éducation du public en matière de littératie numérique et de sécurité en ligne. Quelques participants ont souligné l’importance d’éduquer de façon proactive les jeunes sur la culture du consentement et le fait de traiter les autres avec respect.

Moncton (Nouveau-Brunswick)

La deuxième table ronde régionale a également eu lieu le 8 juillet à Moncton au Nouveau-Brunswick. La discussion a porté sur les dangers de la désinformation, la nécessité d’améliorer les systèmes de signalement du contenu et l’importance d’éduquer le public sur la sécurité en ligne.

Les participants ont exprimé des préoccupations au sujet du modèle d’affaires des plateformes de médias sociaux qui utilisent des algorithmes pour augmenter le volume de contenu consulté et diriger les utilisateurs vers du contenu spécifique. Les participants ont souligné la rapidité avec laquelle un utilisateur peut être inondé de contenu indésirable à l’aide d’algorithmes. Quelques participants ont noté comment les algorithmes pourraient faire en sorte que les jeunes soient exposés à des documents de nature délicate ou propres aux adultes.

Les participants étaient préoccupés par la rapidité avec laquelle la désinformation peut être créée et communiquée à un large éventail de personnes. Les participants ont noté combien de temps peut être requis pour produire et vérifier le contenu par rapport à la rapidité avec laquelle la désinformation peut être créée et partagée. La plupart des participants ont exprimé leur préoccupation pour ce qui est de la difficulté qui existe à distinguer ce qui est factuel de ce qui est faux. Quelques intervenants ont mentionné l’importance de rendre les outils de vérification des faits plus accessibles aux Canadiens.

Les participants ont décrit l’urgence d’améliorer les systèmes de signalement du contenu en ligne. Quelques participants ont rapporté des cas où ils ont signalé du contenu en ligne et qu’aucune mesure n’a été prise. Quelques participants ont décrit les options limitées dont disposent les utilisateurs pour signaler du contenu dans un flux en direct ou par des messages privés sur une plateforme. Les participants ont exprimé le désir que les plateformes offrent des systèmes de signalement de contenu plus accessibles.

De nombreux participants ont souligné la vulnérabilité des communautés immigrantes en raison du manque de connaissances du système de technologie et de médias sociaux chez de nouveaux Canadiens. Les participants ont souligné les difficultés qu’éprouvent les nouveaux Canadiens à distinguer l’information factuelle de la désinformation.

De nombreux intervenants se sont dits préoccupés par la vulnérabilité des jeunes en ligne. Les participants ont souligné la vaste gamme de contenu que les jeunes peuvent consulter en ligne et les difficultés qu’ils éprouvent à faire la distinction entre les renseignements factuels et les faux renseignements. Les participants ont discuté des défis auxquels font face les parents et les jeunes pour rester en sécurité en ligne. Des contrôles parentaux limités, un manque de sensibilisation aux caractéristiques de sécurité des plateformes et un manque de mesures de protection sur le contenu de nature délicate ont été cités comme des défis auxquels font face les parents et les jeunes.

Les participants se sont entendus sur la nécessité d’accroître l’éducation sur la littératie numérique et la sécurité en ligne. Les jeunes et les communautés d’immigrants ont été identifiés par les participants comme étant les deux groupes pour lesquels il faudrait adapter les efforts d’éducation au moyen de campagnes d’éducation, de réformes des programmes scolaires et de changements aux programmes d’intégration.

Certains participants se sont dits préoccupés par l’absence d’exigences de vérification des utilisateurs sur les plateformes et le degré élevé d’anonymat des utilisateurs en ligne. Quelques intervenants ont décrit des cas de personnes qui créent de faux comptes pour avoir accès aux pages de groupes privés. Les participants s’inquiétaient particulièrement du leurre en ligne qui cible les jeunes. Les jeux vidéo ont été identifiés comme un type de plateforme qui doit être examiné en raison du degré élevé d’anonymat des joueurs en ligne pouvant mener à des jeux pour adultes et à des interactions avec les jeunes avec peu de mesures de protection en place.

De nombreux participants ont exprimé le désir d’introduire des lois, des règlements et des systèmes plus solides pour lutter contre les préjudices en ligne. Les participants ont reconnu l’importance d’une nouvelle loi sur la sécurité en ligne qui établirait un équilibre entre la protection de la liberté d’expression et la protection des Canadiens contre la haine en ligne.

St John’s (Terre-Neuve-et-Labrador)

La troisième table ronde régionale a eu lieu le 12 juillet à St. John’s (Terre-Neuve-et-Labrador). Les participants ont discuté du rôle des plateformes de médias sociaux, de la sensibilisation accrue aux ressources de sécurité en ligne et de l’importance d’offrir un soutien aux victimes de préjudice en ligne. Les participants ont souligné que les citoyens, le gouvernement et l’industrie de la technologie sont tous collectivement responsables d’assurer la sécurité en ligne.

Les participants ont insisté sur la responsabilité des plateformes en ligne dans la gestion des préjudices en ligne. Quelques participants se sont dits préoccupés par le modèle d’affaires des plateformes de médias sociaux qui s’appuie sur la fréquentation du site et l’exposition du contenu, ce qui a été perçu comme contribuant à la propagation de préjudices en ligne. Plus particulièrement, quelques participants ont souligné la capacité des algorithmes de plateforme à créer des chambres d’écho où les utilisateurs ne sont exposés qu’à un ensemble de contenu spécifique.

Les participants ont également soulevé des préoccupations au sujet des systèmes de modération et de signalement du contenu existants. Quelques participants ont partagé des histoires concernant les cas où le contenu signalé n’a pas été touché par les plateformes de médias sociaux et les cas où le contenu a été supprimé parce qu’il a été mal identifié comme étant du contenu inapproprié. La plupart des participants estiment qu’il devrait y avoir des systèmes de signalement du contenu facilement accessibles aux utilisateurs.

La plupart des participants ont exprimé le désir que les plateformes introduisent davantage de mesures de responsabilisation pour les utilisateurs. Quelques participants ont discuté de la question de l’anonymat en ligne sur les plateformes et la façon dont cela permet à certains utilisateurs d’éviter d’être tenus responsables du contenu qu’ils publient, ce qui peut encourager les utilisateurs à publier des commentaires qu’ils n’auraient pas publiés autrement.

Les participants n’étaient pas d’accord sur la question de savoir si les messages privés devraient être visés. Quelques participants étaient méfiants de la modération des messages privés, tandis que d’autres participants reconnaissaient que les messages privés peuvent être utilisés pour causer des préjudices. Les participants ont soulevé les questions de la protection de la vie privée et de la perception de la surveillance de l’État si les messages privés étaient visés.

Les participants se sont largement entendus sur l’importance d’éduquer le public sur la façon de rester en sécurité en ligne et sur l’impact que le contenu préjudiciable peut avoir sur les victimes. Quelques participants ont souligné l’importance d’éduquer les parents afin qu’ils aient les outils nécessaires pour protéger leurs enfants en ligne. L’élaboration de lignes directrices a été suggérée pour aider les Canadiens à cerner différentes formes de préjudice en ligne, comme les microagressions, et à y faire face.

La plupart des participants ont mentionné l’importance d’offrir un soutien aux victimes de préjudice en ligne. Quelques participants ont suggéré la création de groupes de soutien et de soins pour aider les gens à faire face aux préjudices en ligne. Une attention particulière pour les participants a porté sur le fait de fournir un soutien aux jeunes en raison des répercussions sur la santé mentale que les préjudices en ligne peuvent causer.

Quelques participants ont souligné un manque de confiance envers les forces de l’ordre comme un obstacle au signalement du contenu préjudiciable aux agences d’application de la loi. Il a été noté que l’inaction face aux cas de haine signalés alimentait davantage ces sentiments.

Les participants ont exprimé le désir que les politiques et les règlements en matière de sécurité en ligne soient robustes et adaptables aux changements au sein de l’industrie de la technologie. Les participants ont souligné la nécessité de prendre des mesures rigoureuses d’application de la loi pour assurer la conformité des plateformes en ligne.

Québec (Québec)

La table ronde suivante a eu lieu le 15 juillet à Québec. Les participants ont discuté des répercussions positives et négatives des médias sociaux sur la société. Les participants ont mentionné expressément les répercussions que les médias sociaux ont sur la santé mentale des jeunes.

Les participants ont noté que les plateformes de médias sociaux offrent aux gens un espace pour échanger avec les autres et s’exprimer. Toutefois, les participants ont fait remarquer que les plateformes de médias sociaux peuvent également diffuser des messages préjudiciables à un large public. Les participants ont indiqué que les algorithmes des médias sociaux étaient un facteur contribuant aux préjudices en ligne, car ils peuvent renforcer les perspectives négatives ou erronées puisque les utilisateurs de la plateforme sont ciblés par du contenu en fonction de leur historique de recherche.

Quelques participants ont souligné que la nature anonyme des médias sociaux donne aux utilisateurs plus de liberté pour répandre du contenu préjudiciable tel que du contenu intimidant, des menaces de mort et des comportements haineux en ligne. Quelques participants ont fait remarquer que cela peut créer un poids pour la santé mentale des jeunes et contribuer à un sentiment de solitude qui, s’il n’est pas maîtrisé, pourrait mener à des comportements autodestructeurs.

Les participants ont reconnu l’importance d’une meilleure éducation sur la sécurité en ligne. Les participants ont suggéré d’organiser des campagnes de sensibilisation et de modifier les programmes scolaires afin d’informer les Canadiens des ressources et des outils disponibles permettant de rester en sécurité en ligne. Quelques participants ont fait remarquer que les campagnes d’éducation devraient viser à éduquer les jeunes sur ce qu’ils pourraient faire s’ils sont victimes de préjudice en ligne.

Quelques participants ont fait remarquer que l’accessibilité aux ressources et à l’information sur la sécurité en ligne était identifiée comme une mesure importante à prendre. Il a été noté que l’information devrait être communiquée de manière à ce que les personnes de tous les milieux et de tous les niveaux scolaires puissent l’assimiler.

Les participants ont souligné que les communautés dignes d’équité, et en particulier les musulmans et les membres des communautés 2ELGBTQI+, sont ciblées en ligne. Certains craignaient que les plateformes ne fassent pas assez pour protéger les jeunes homosexuels et les Canadiens musulmans et que leurs algorithmes amplifient les émotions négatives et le contenu qui répand la discrimination à leur égard. Les participants ont demandé plus d’outils et de ressources pour ces communautés.

Montréal (Québec)

La deuxième table ronde régionale du Québec a eu lieu à Montréal le 21 juillet. Les discussions ont porté sur l’importance de l’éducation en littératie numérique, les répercussions sur la santé mentale causées par les préjudices en ligne et le fait d’accroître la transparence sur les plateformes de médias sociaux.

Le renforcement de l’éducation pour la sécurité en ligne a été largement soutenu par les participants. Les participants ont suggéré de concentrer les initiatives d’éducation sur les jeunes en raison de leur vulnérabilité en ligne. Certains participants ont mentionné la nécessité d’une collaboration fédérale-provinciale en vue d’établir un cours de littératie numérique dans les programmes scolaires. Les participants ont également suggéré qu’une campagne nationale de littératie numérique soit créée avec le soutien des plateformes de médias sociaux.

Quelques participants ont exprimé le désir d’examiner le rôle de l’industrie des jeux vidéo dans la facilitation du préjudice en ligne. Il a été noté que les préjudices en ligne se produisent sur les plateformes de jeux vidéo, particulièrement contre les jeunes, et que des jeux vidéo sont actuellement utilisés par des extrémistes pour recruter ou radicaliser des gens.

De nombreux participants ont mis l’accent sur l’aide aux victimes de préjudice en ligne. De nombreuses personnes ont fait remarquer qu’il incombe actuellement aux victimes de signaler les cas de préjudice en ligne. Certains participants ont souligné qu’il s’agit là d’un obstacle, car les victimes ne sont pas toujours à l’aise de se manifester pour signaler du contenu et des comportements en ligne. Les participants croient que le fait de fournir des ressources et des mécanismes de signalement accessibles devrait faire partie de la nouvelle loi sur la sécurité en ligne.

Certains participants ont exprimé leur intérêt à aborder le contenu diffamatoire en raison des conséquences qu’il peut avoir sur les victimes et le temps et les ressources nécessaires pour que les victimes puissent y remédier. Les participants ont noté que les femmes sont particulièrement visées par la diffamation en ligne par des attaques personnelles et de réputation qui ont une incidence négative sur leur santé mentale.

Les participants ont discuté du rôle que jouent les annonceurs sur les plateformes de médias sociaux. Quelques participants ont indiqué que les annonceurs devraient être inclus dans un nouveau cadre de sécurité en ligne afin d’exercer une pression supplémentaire sur les plateformes pour qu’elles se conforment aux obligations de signalement. Cette opinion a été contestée par d’autres participants, car il a été mentionné que les annonceurs n’ont pas les mêmes obligations et le même contrôle sur le contenu affiché sur une plateforme de médias sociaux.

Les participants ont exprimé le désir que la législation sur la sécurité en ligne exige une plus grande transparence de la part des plateformes de médias sociaux sur leur processus de modération du contenu. Les participants souhaitaient assurer une plus grande transparence de l’utilisation de l’intelligence artificielle (IA) par les plateformes de médias sociaux pour modérer le contenu. Quelques participants ont suggéré que la législation devrait s’inspirer des principes de Santa Clara sur la transparence et la responsabilité dans la modération du contenu.

Les participants ont discuté de l’importance de la mise en place de systèmes d’authentification et de vérification sur les plateformes. Les participants ont souligné l’importance des systèmes de vérification pour les plateformes qui comprennent du contenu de nature délicate, comme les sites pornographiques, en raison du risque pour les enfants d’accéder à ces plateformes. Les participants ont également suggéré d’inclure les technologies d’hypertrucage dans les lois sur la sécurité en ligne.

Les participants ont eu une discussion approfondie sur l’établissement de définitions pour différentes catégories de contenu en ligne. Les participants ont exprimé leur préférence envers l’établissement de définitions larges de catégories pour le contenu afin de s’assurer que les définitions tiennent compte du nouveau contenu qui pourrait émerger. En ce qui concerne la haine, de nombreux participants ont indiqué qu’ils préféraient une définition claire de ce qui constitue du contenu haineux. Ce contenu devrait s’appliquer à tous les utilisateurs en ligne plutôt qu’à certains segments d’utilisateurs.

Les participants ont souligné l’importance d’assurer l’indépendance et l’impartialité d’un organisme de réglementation de la sécurité en ligne. Il a été souligné que ces éléments sont essentiels pour assurer la neutralité de l’organisme de réglementation.

Edmonton (Alberta)

Les tables rondes se sont ensuite déplacées vers les Prairies, en commençant par une table ronde tenue à Edmonton, en Alberta, le 25 juillet. Les participants ont discuté du rôle de la réglementation de tenir responsables les plateformes de médias sociaux, des difficultés auxquelles font face les jeunes et des solutions possibles pour s’attaquer au contenu préjudiciable.

Les participants ont discuté du rôle de l’anonymat en ligne dans la propagation des préjudices en ligne. Il a été noté qu’être anonyme en ligne peut encourager les gens à publier et à poser des actions qu’ils ne poseraient pas autrement si leur identité était connue. La solution proposée à ce problème consistait à exiger l’authentification des utilisateurs.

Les participants ont discuté des solutions possibles pour s’attaquer au contenu préjudiciable sur les plateformes de médias sociaux. Certains participants ont suggéré d’adopter des avertissements automatiques sur le contenu, de mettre en place une démarche d’approbation ou de refus de voir du contenu et de passer de la modération automatisée à la modération humaine comme solutions pour lutter contre le contenu préjudiciable. Les participants ont cerné les algorithmes comme étant un contributeur clé à la propagation des préjudices en ligne.

Les participants ont discuté des difficultés que les jeunes éprouvent à identifier et à signaler la haine en ligne en raison de l’inaccessibilité des systèmes de signalement de contenu et des formes subtiles de contenu préjudiciable. L’éducation et l’offre de ressources de soutien aux jeunes ont été désignées comme des solutions importantes en vue de les préparer aux situations où ils font face à des préjudices en ligne.

Il y a eu une entente sur l’importance d’accroître l’éducation en matière de littératie numérique pour s’assurer que les personnes disposent des outils et des connaissances nécessaires pour cerner les préjudices en ligne. La réforme du programme scolaire a été suggérée comme une option possible pour atteindre directement les jeunes.

Les participants ont discuté des répercussions sur la santé mentale et de l’effet polarisant accru que les préjudices en ligne peuvent causer chez les personnes. Les participants ont souligné l’importance d’offrir un soutien aux victimes et un soutien par les pairs aux jeunes pour résoudre les répercussions des préjudices en ligne sur la santé mentale.

Les participants ont discuté du rôle que peut jouer la réglementation pour tenir les plateformes de médias sociaux responsables. Quelques participants ont évoqué la nécessité d’inclure des plateformes de grande taille et de petite taille comme 4chan dans un cadre réglementaire. Les participants ont discuté de l’importance d’équilibrer la réglementation afin qu’elle soit compatible avec les droits et libertés garantis par la Charte. Certains participants ont exprimé des réserves quant à l’efficacité de l’introduction de règlements pour faire face aux préjudices en ligne en raison du temps qu’il faudrait pour créer et faire respecter le règlement. Les participants étaient également préoccupés par la possibilité que les plateformes évitent l’application de la loi.

Saskatoon (Saskatchewan)

La deuxième table ronde dans les Prairies a eu lieu le 26 juillet à Saskatoon. Les discussions ont porté sur l’importance de tenir les plateformes responsables de leurs actions, la nécessité d’une meilleure éducation en alphabétisation numérique et l’importance de protéger les jeunes et les enfants.

Les participants ont convenu de la nécessité d’une meilleure éducation du public en littératie numérique. L’éducation a été considérée comme une étape clé dans la prévention de la création et de la diffusion de contenus préjudiciables. Les participants ont évoqué les différentes méthodes de formation, y compris une campagne numérique en ligne et une approche ascendante et au niveau communautaire.

Il y a eu un large consensus sur la nécessité de protéger les enfants et les jeunes dans la loi sur la sécurité en ligne. Beaucoup ont souligné la vulnérabilité des jeunes aux prédateurs en ligne et le risque que les jeunes soient soumis à des chambres d’écho sur des sujets précis.

Les participants ont exprimé le désir de tenir les plateformes responsables de la gestion du contenu affiché sur leurs plateformes. De nombreux participants ont fait part de préoccupations au sujet des plateformes qui priorisent les profits plutôt que de surveiller le contenu et d’éduquer les utilisateurs sur la littératie numérique. Les participants étaient généralement d’accord sur le fait que les plateformes devraient accroître les efforts de modération du contenu et s’engager à respecter les normes opérationnelles de base. De nombreux participants ont souligné la nécessité d’inclure des mécanismes d’application de la loi pour s’assurer que les plateformes prennent des mesures visant à réduire les préjudices en ligne.

Quelques participants ont soulevé des préoccupations au sujet des systèmes de vérification pour les utilisateurs en ligne. Bien qu’ils puissent répondre aux préoccupations concernant l’anonymat des utilisateurs, les participants ont fait remarquer que de tels systèmes peuvent affecter négativement les personnes marginalisées.

Les participants autochtones se sont dits préoccupés par le fait que les plateformes ne comprennent pas ou ne respectent pas leur spécificité culturelle. Les participants autochtones ont mentionné qu’ils ont souvent l’impression que ni les organismes d’application de la loi ni les plateformes ne comprennent la discrimination à laquelle ils font face en ligne et que les organismes d’application de la loi et les plateformes ne sont pas assez sophistiqués pour aborder la haine en ligne, en particulier envers les peuples autochtones.

Niagara (Ontario)

Les tables rondes sont retournées en Ontario et une table ronde a été tenue le 12 août à Niagara en Ontario. Les participants ont évoqué l’importance de la littératie dans les médias numériques, le fait de rendre accessible l’information sur le signalement de contenu et d’offrir plus de ressources aux victimes de préjudice en ligne.

Les participants ont souligné l’importance d’accroître l’accessibilité des ressources de sécurité en ligne et des systèmes de signalement du contenu des plateformes pour les utilisateurs. De nombreux participants ont décrit l’incertitude quant à savoir à qui et où il faudrait signaler les cas de préjudice en ligne, comme le harcèlement et la cyberimposture (ou escroquerie amoureuse). Il a été suggéré que les plateformes fournissent des outils qui utilisent un langage clair et des instructions faciles à comprendre pour signaler du contenu.

La priorité de nombreux participants était la protection des jeunes. Les participants ont exprimé leur soutien à l’augmentation des ressources éducatives sur les dangers des médias sociaux et sur la façon dont les jeunes peuvent naviguer sur les médias sociaux en toute sécurité. Quelques participants ont évoqué la nécessité d’une plus grande collaboration avec les universités et les écoles pour établir des codes de conduite en ligne pour les étudiants.

Plusieurs participants se sont dits préoccupés par la capacité des plateformes à réagir aux préjudices en ligne. Les participants ont exprimé le désir d’obtenir des renseignements supplémentaires sur la façon dont l’obligation d’agir de façon responsable aurait une incidence sur la manière dont les plateformes traitent les préjudices en ligne. Les participants étaient favorables à la création d’une entité réglementaire qui surveillerait les plateformes en ligne.

Le soutien aux victimes de préjudice en ligne a été un des points centraux soulevés par les participants. De nombreux participants ont décrit les difficultés de recourir aux organismes d’application de la loi pour qu’ils traitent les cas de préjudice en ligne, y compris la façon dont les organismes d’application de la loi classent les cas de préjudice en ligne et leurs limites à offrir des recours. Les participants étaient favorables à l’offre de ressources en santé mentale aux victimes de préjudice en ligne.

Surrey (Colombie-Britannique)

Les tables rondes se sont dirigées vers la côte ouest et une table ronde a eu lieu à Surrey (Colombie-Britannique) le 2 septembre. Les participants ont discuté de la nécessité d’accroître la sensibilisation aux médias numériques, de l’importance de protéger les populations vulnérables, comme les jeunes et les personnes âgées, contre la portée des préjudices en ligne possibles, et des considérations clés lors de l’élaboration d’une législation sur la sécurité en ligne. Les participants ont souligné que le statu quo n’est plus acceptable.

Les participants ont discuté de la distinction entre la désinformation et la mésinformation. Les participants considéraient la désinformation comme une étape avant la mésinformation et se demandaient si la législation pouvait tenir compte des deux questions. Quelques participants ont discuté de la question de savoir si la législation sur la sécurité en ligne doit inclure la désinformation et la mésinformation en raison des difficultés que pose la lutte contre ces deux questions. Certains participants se sont dits mal à l’aise quant à l’idée que le gouvernement soit l’entité qui décide si le matériel constitue de la désinformation ou de la mésinformation.

Protéger les jeunes en ligne était une priorité clé pour les participants en raison des répercussions à long terme que peuvent avoir des préjudices en ligne sur une victime. Quelques participants ont souligné qu’il peut être difficile pour les jeunes de déterminer quel contenu est véridique ou faux et que les prédateurs en ligne peuvent communiquer avec des jeunes du monde entier sur différentes plateformes. Certains participants ont exprimé le désir de déposer une loi distincte qui porte précisément sur la protection des jeunes et des enfants contre les préjudices.

Les participants ont convenu qu’une sensibilisation accrue aux médias numériques est nécessaire pour préparer les gens à naviguer sur Internet. Les jeunes et les personnes âgées ont été identifiés comme deux groupes sur lesquels on doit axer les campagnes éducatives en raison de leur vulnérabilité en ligne. Quelques participants ont suggéré d’intégrer la littératie numérique dans les programmes scolaires, tandis que d’autres ont estimé que les ressources éducatives doivent être développées par le gouvernement et la société civile.

Quelques participants ont discuté des répercussions de l’utilisation de grandes plateformes de médias sociaux par des individus pour diffuser des préjudices en ligne comme un facteur à considérer. Les participants se sont dits préoccupés par la façon dont les individus peuvent utiliser les plateformes pour diffuser rapidement du contenu préjudiciable. Les participants ont indiqué que les plateformes doivent tenir les individus ayant une large base d’abonnés davantage responsables vis-à-vis des différentes normes de modération de contenu comparativement aux autres utilisateurs en raison de l’engagement que ces individus suscitent sur les plateformes.

Les participants ont indiqué que la législation proposée sur la sécurité en ligne doit établir un ensemble de définitions universelles pour le contenu préjudiciable et ne pas se concentrer sur des plateformes précises en raison de la probabilité de l’émergence de nouvelles plateformes au fil du temps. Certains participants ont indiqué que la législation doit tenir compte des différents types de plateformes en ligne, allant de grandes plateformes grand public aux plus petites qui ont tendance à exister dans le Web invisible. Quelques participants ont suggéré que la loi se concentre sur les questions moins complexes afin d’assurer la rapidité de l’adoption de la loi.

Le respect de la liberté d’expression est une priorité essentielle pour certains participants. Il a été noté que l’anonymat et les communautés en ligne peuvent être thérapeutiques pour les personnes qui fuient des préjudices ou des ennuis survenant dans leur propre vie.

Winnipeg (Manitoba)

La table ronde suivante a eu lieu à Winnipeg le 29 septembre. Les participants ont discuté des difficultés auxquelles sont confrontés les immigrants en ligne, de l’importance de protéger les jeunes et du désir d’une plus grande responsabilisation des plateformes.

Les participants ont décrit les difficultés auxquelles sont confrontés les immigrants et les nouveaux Canadiens lorsqu’ils utilisent des plateformes en ligne. Nombreux sont ceux qui ont mentionné que la langue est un obstacle majeur pour de nombreux utilisateurs qui utilisent des plateformes en ligne. De plus, les participants ont indiqué que les nouveaux Canadiens étaient vulnérables à des problèmes comme les commentaires haineux et les escroqueries en ligne qui visent à obtenir des renseignements personnels. Des préoccupations particulières ont été exprimées à l’égard des jeunes immigrants, qui ne sont souvent pas au courant des règles de participation et de la culture en ligne.

Les participants ont discuté de l’importance de protéger les enfants et les jeunes en ligne. Les participants s’inquiétaient du manque d’outils et de connaissances destinés aux jeunes pour naviguer sur Internet en toute sécurité. Il a été suggéré que l’on puisse y remédier en mettant au point des campagnes de littératie numérique et en modifiant les programmes pédagogiques pour y inclure la littératie numérique.

Les participants ont indiqué leur mécontentement face aux pratiques actuelles des plateformes de médias sociaux pour protéger les jeunes. De nombreux participants ont exprimé le désir que les médias sociaux assument une plus grande responsabilité et prennent des mesures pour protéger les jeunes, comme le développement d’applications avec des mécanismes de sécurité intégrés.

Les participants ont discuté du rôle possible des organismes chargés de l’application de la loi dans le cadre de la législation sur la sécurité en ligne. De nombreux participants ont indiqué que les organismes chargés de l’application de la loi avaient du mal à obtenir des données auprès des plateformes en cas d’exploitation sexuelle d’enfants. Au lieu d’avoir une forte composante d’application de la loi dans la législation, les participants ont exprimé le désir que les organismes chargés de l’application de la loi n’aient de grands pouvoirs que dans des cas extrêmes, comme la diffusion d’attaques en direct.

Les participants ont décrit leur expérience avec les systèmes de signalement de contenu des médias sociaux comme étant longue, peu réactive et peu coopérative. De nombreux participants ont souligné la nécessité de mettre en place des systèmes de modération des plateformes pour réagir plus activement aux contenus qui promeuvent la haine et la violence.

L’idée d’une approche axée sur les risques a été généralement bien reçue, bien que les participants aient soulevé plusieurs questions sur la façon de la mettre en œuvre. Quelques participants ont fait part de leurs préoccupations quant au type de langage qui peut être utilisé pour définir certains préjudices. Les participants s’inquiétaient du fait que les termes « extrémisme » ou « radicalisation » aient des connotations négatives à l’égard des communautés raci sées. Quelques participants ont exprimé le désir que la législation sur la sécurité en ligne porte une plus grande attention à la prévention des préjudices en ligne plutôt qu’à  la lutte contre les préjudices en ligne.

Les participants ont indiqué que les femmes sont une cible importante des préjudices en ligne. Le partage non consensuel d’images intimes et le chantage en ligne ont été mis en évidence en particulier en raison des répercussions qu’ils peuvent entraîner sur le bien-être des victimes.

Plusieurs participants ont discuté de l’aspect international des préjudices en ligne. De nombreux participants ont souligné que la pornographie juvénile et le cyberchantage peuvent provenir de l’extérieur du Canada. Les participants ont exprimé leur frustration quant au manque de recours et d’outils dont disposent les victimes pour traiter de tels cas et ont mentionné la nécessité d’une collaboration internationale pour assurer la sécurité en ligne.

Les participants ont convenu que les plateformes de médias sociaux doivent être tenues responsables de la diffusion de contenus préjudiciables sur leurs plateformes. De nombreux participants ont indiqué que les plateformes de médias sociaux doivent être tenues responsables d’adopter des mesures, comme l’introduction d’avertissements de non-responsabilité à l’égard du contenu ou la prise de décisions plus strictes en matière de modération du contenu. Quelques participants ont indiqué que cela est préférable à ce que le gouvernement joue un rôle dans la modération du contenu.

Windsor (Ontario)

De retour en Ontario le 24 octobre avec une table ronde à Windsor, les participants ont discuté de l’importance de protéger les groupes vulnérables comme les jeunes et les immigrants, du rôle des organismes d’application de la loi et de l’expérience des utilisateurs en matière de signalement de contenu sur les plateformes.

La protection des enfants et des jeunes était une priorité clé pour les participants en raison de l’utilisation précoce et fréquente des plateformes en ligne par les jeunes. Le coût pour la santé mentale et le risque d’exploitation sexuelle chez les enfants ont été identifiés comme les principaux dangers auxquels les jeunes font face en ligne. Quelques participants ont mentionné les difficultés qu’éprouvent les parents à essayer de protéger leurs enfants contre les préjudices en ligne causés par la montée rapide de nouvelles plateformes et tendances.

Accroître la sensibilisation à la littératie numérique a été désigné comme une priorité clé pour aider à protéger les groupes vulnérables comme les jeunes, les aînés et les immigrants. Quelques participants ont suggéré que des partenariats pourraient être établis avec des ministères comme Immigration, Réfugiés et Citoyenneté Canada (IRCC) pour intégrer la littératie numérique au x programmes de formation des nouveaux Canadiens. Les participants ont également discuté de l’adaptation de matériel de littératie numérique pour aider les parents à enseigner à leurs enfants comment être en sécurité en ligne.

De nombreux participants ont indiqué la nécessité d’adopter un cadre réglementaire avec une vaste portée et suffisamment souple pour inclure de nouvelles plateformes à mesure que le paysage des médias sociaux évolue. Les participants ont fait remarquer que la réglementation de certaines plateformes, mais pas toutes, comporte le risque que du contenu préjudiciable se déplace vers des plateformes plus petites et non réglementées.

Les participants ont décrit les difficultés à communiquer et à obtenir de l’information concernant les décisions de modération du contenu. Il y avait un large appui pour exiger que les plateformes de médias sociaux soient plus transparentes en ce qui concerne la communication des processus de modération du contenu. Les participants appuient l’idée d’avoir un ombudsman à qui s’adresser lorsqu’ils ont un problème avec une plateforme de médias sociaux.

Les participants ont reconnu les difficultés qu’ont les organismes d’application de la loi à obtenir de l’information sur les plateformes de médias sociaux. Cependant, ils étaient conscients des risques de discrimination et de racisme systémique qui pourraient découler de pouvoirs d’application de la loi accrus.

Halifax (Nouvelle-Écosse)

Les tables rondes sont retournées sur la côte est avec une table ronde à Halifax le 27 octobre. Parmi les sujets abordés par les participants, citons le lien entre les préjudices physiques et en ligne, le rôle d’un commissaire à la sécurité numérique, le besoin de modération humaine et l’importance de la littératie numérique.

Le risque de préjudice en ligne se traduisant par un préjudice physique a été signalé par plusieurs participants qui ont rencontré des cas de préjudice en personne qui peuvent être attribués à des idées erronées échangées en ligne. Les participants ont également discuté des conséquences des préjudices en ligne sur la santé mentale et certains d’entre eux ont décrit des cas de jeunes qui craignent de s’engager dans le monde réel en raison du niveau de haine qu’ils voient en ligne.

Les participants étaient en faveur de l’établissement d’un organisme de réglementation pour s’attaquer aux préjudices en ligne et interagir avec les plateformes de médias sociaux. Les participants ont fait remarquer qu’une des grandes difficultés dans la lutte contre la désinformation et les préjudices en ligne est la rapidité avec laquelle le contenu peut se propager avant d’être retiré. Des préoccupations ont été exprimées au sujet de la réactivité de l’organisme de réglementation. Plusieurs participants craignaient les retards bureaucratiques, qui pourraient nuire à l’efficacité de l’organisme de réglementation.

De nombreux participants s’inquiétaient de la dépendance des plateformes de médias sociaux envers les outils de modération de l’IA. Les participants ont indiqué qu’ils préféraient une surveillance et une prise de décisions plus humaines dans la façon dont les plateformes de médias sociaux modèrent le contenu. Quelques participants ont suggéré que la législation sur la sécurité en ligne pourrait exiger que les plateformes aient des départements de conformité pour traiter les demandes de modération du contenu.

Les participants ont souligné la nécessité d’accroître la sensibilisation à la littératie numérique et ont appuyé l’amélioration des ressources d’éducation à la littératie numériquepour veiller à ce que les gens aient les connaissances et les outils nécessaires pour rester en sécurité en ligne. Il a été noté que les gens devraient savoir comment signaler le contenu et à qui s’adresser pour obtenir de l’aide. Il a été suggéré qu’une approche proactive comprenant l’éducation du public, des messages d’intérêt public et des services peut contribuer à la sensibilisation à la sécurité numérique.

Les participants étaient favorables à l’adoption d’une loi qui préconise une approche fondée sur le risque et ont discuté des éléments qu’ils aimeraient voir couverts. Un élément soulevé par quelques participants est l’importance de déceler les contenus préjudiciables qui sont plus difficiles à détecter par les systèmes d’IA. Un autre sujet abordé est celui des cas où des utilisateurs bannis créent de nouveaux comptes pour poursuivre la propagation de la haine en ligne.

Les participants ont discuté du rôle des organismes d’application de la loi dans la lutte contre les préjudices en ligne. Il a été reconnu que la confiance du public à l’égard de l’application de la loi est actuellement faible et que les organismes d’application de la loi doivent intervenir pour la regagner. Quelques participants ont mentionné que les organismes d’application de la loi devraient faire partie de la solution pour lutter contre les préjudices en ligne en leur fournissant davantage d’outils et de formation sur les crimes liés à la cybersécurité. Quelques participants ont suggéré qu’au lieu d’une cyberenquête menée par un seul agent, une approche de comité serait préférable pour réduire au minimum le risque de préjugés personnels ayant une incidence sur les actions des organismes d’application de la loi.

Nord du Canada

Les tables rondes régionales se sont terminées le 9 novembre par une table ronde hybride tenue dans le Nord et réunissant des participants des trois territoires du Canada. La partie en personne de la table ronde a eu lieu à Whitehorse, au Yukon, tandis que la partie virtuelle a eu lieu sur MS Teams pour les participants de l’extérieur de Whitehorse. Les participants ont discuté de leur expérience relative à la communication de contenu sur les plateformes de médias sociaux, de la nécessité d’accroître les connaissances en littératie numérique et des préoccupations concernant l’octroi de plus de pouvoirs aux organismes d’application de la loi.

Les participants ont décrit les problèmes qu’ils ont rencontrés concernant la façon dont les plateformes de médias sociaux ont modéré le contenu. Ils ont constaté qu’il incombait souvent aux utilisateurs de signaler et de gérer le contenu dans les espaces en ligne, comme les discussions de groupe et les babillards privés. Les participants ont éprouvé des difficultés à communiquer directement avec les plateformes de médias sociaux au sujet des décisions de modération du contenu. Il a été noté qu’un organisme de réglementation pourrait aider à régler ce problème.

De nombreux participants ont exprimé leur appui général à une approche fondée sur le risque et à un organisme de réglementation de la sécurité numérique. Cependant, quelques participants ont soulevé des préoccupations quant à savoir si les obstacles administratifs et bureaucratiques pourraient avoir une incidence sur l’efficacité de l’organisme de réglementation, ce qui entraînerait des retards dans le traitement des plaintes des utilisateurs.

Les participants ont discuté de leur expérience de voir et de recevoir du contenu préjudiciable en ligne. On a constaté que les communautés marginalisées, comme les minorités visibles et la communauté 2ELGBTQI+, reçoivent souvent des commentaires préjudiciables. Quelques participants ont signalé que les sections de commentaires des articles de presse sont un domaine où du contenu préjudiciable est affiché.

Les participants ont discuté de l’importance d’offrir une éducation en littératie numérique aux jeunes et aux membres des communautés éloignées. Les jeunes ont été désignés comme un groupe particulier sur lequel on doit concentrer des ressources éducatives en raison de leur vulnérabilité en ligne. De nombreux participants ont suggéré de consulter directement les jeunes pour apprendre leur première expérience de la navigation sur les plateformes en ligne. Il a aussi été noté qu’il faudrait élaborer d’autres documents d’orientation et d’éducation pour aider les enseignants et les organisations à enseigner aux Canadiens à rester en sécurité en ligne.

De nombreux participants ont exprimé des préoccupations claires et fortes quant à l’octroi de ressources et d’une autorité accrues aux forces de l’ordre pour traiter les préjudices en ligne. Ils ont fait ressortir l’absence de sensibilisation culturelle de nombreux agents d’application de la loi affectés dans le Nord. Les participants ont discuté des difficultés qu’ils éprouvent à s’adresser aux organismes d’application de la loi et ont suggéré de créer un organisme doté des outils, de la formation et de la connaissance nécessaires du cadre de sécurité en ligne plutôt que de compter sur les organismes d’application de la loi.

Tables rondes thématiques

Antisémitisme

La première table ronde thématique a eu lieu le 16 août sur le thème de l’antisémitisme. Les participants représentant des organisations de la communauté juive du Canada ont été invités à discuter de leurs expériences en matière de préjudices et d’antisémitisme en ligne. Les participants ont discuté du risque de préjudice en ligne se traduisant par des dommages physiques, de la nécessité pour les établissements d’enseignement de jouer un rôle plus important dans la lutte contre les préjudices en ligne et du scepticisme quant à la capacité des plateformes de médias sociaux à s’autoréglementer relativement aux préjudices en ligne.

Les participants ont souligné l’importance de l’éducation et des établissements d’enseignement dans la lutte contre les préjudices en ligne. Les participants ont discuté du rôle que l’éducation à la littératie numérique et l’éducation culturelle peuvent jouer dans la lutte contre la propagation de la désinformation. Quelques participants ont exprimé le désir que les établissements d’enseignement, comme les universités, redoublent d’efforts pour s’attaquer aux cas de préjudices en ligne au sein de la communauté étudiante. Quelques participants ont décrit des cas où des établissements postsecondaires n’intervenaient pas dans des incidents antisémites parce qu’ils se produisaient en ligne plutôt que sur le campus. Il a été souligné qu’une plus grande collaboration fédérale-provinciale est nécessaire pour accroître l’éducation en littératie numérique.

Les participants ont discuté du rôle des algorithmes dans la propagation de la désinformation et la radicalisation des personnes. La nature furtive des algorithmes et comment ils exposent les lecteurs à des théories du complot préoccupaient de nombreux participants. Ils ont indiqué que le contenu suggéré par l’IA pourrait radicaliser les lecteurs à leur insu.

Les participants ont remis en question la capacité des plateformes de médias sociaux à s’autoréglementer quant au contenu préjudiciable sur leurs plateformes. Plusieurs participants ont fait référence au rôle des algorithmes des plateformes de médias sociaux dans la diffusion de matériel préjudiciable, à leurs antécédents en matière de traitement de contenu préjudiciable et à la fréquentation de sites au contenu préjudiciable pouvant être généré sur les plateformes de médias sociaux.

De nombreux participants ont fait remarquer que le contenu préjudiciable devrait être considéré de façon globale plutôt que comme des éléments de contenu distincts pour comprendre comment il contribue à un environnement en ligne non sécuritaire. Les participants ont discuté de la façon dont la somme du contenu préjudiciable en ligne peut amener les gens à ne pas vouloir exprimer leurs points de vue en ligne ou contribuer aux plateformes en ligne. Ils ont également discuté de leur expérience de voir du contenu antisémite en ligne et quelques participants ont fait remarquer les différentes formes sous lesquelles il est publié et partagé, y compris des vidéos et des références subtiles dans les publications.

Plusieurs participants ont discuté du risque que le préjudice en ligne se traduise en conséquences réelles et en préjudices physiques pour les victimes. L’un des risques cernés par les participants était la possibilité pour les utilisateurs en ligne de repérer et de confronter les victimes en personne en fonction de l’information affichée sur les plateformes de médias sociaux. Quelques participants ont partagé des exemples de préjudice en ligne se transformant en confrontation en personne sur les campus universitaires.

Le rôle de l’anonymat dans la propagation des méfaits en ligne a été signalé par de nombreux participants. Il a été suggéré que la réduction de l’anonymat en ligne aiderait à amener les espaces des médias sociaux vers un environnement public plus collégial. Quelques participants ont suggéré que les systèmes de vérification des utilisateurs pourraient être une solution pour réduire l’anonymat.

Les participants ont discuté des éléments qu’ils aimeraient voir dans la législation sur la sécurité en ligne. Les participants étaient d’avis que le projet de loi devrait être général et englober toutes les plateformes plutôt que d’avoir une portée étroite. De nombreux participants étaient en faveur d’un organisme de réglementation ayant la capacité de tenir les plateformes de médias sociaux responsables de leurs actions. Il a été suggéré que l’organisme de réglementation soit indépendant et qu’il dispose des ressources nécessaires pour s’acquitter de ses fonctions.

Racisme envers les personnes noires

La deuxième table ronde thématique a eu lieu le 28 septembre au sujet du racisme envers les personnes noires. Les participants ont discuté des répercussions de la désinformation, de la nécessité d’une plus grande transparence des plateformes de médias sociaux, de la nature inaccessible des systèmes actuels de production de rapports sur le contenu des médias sociaux et de la nécessité de tenir des consultations continues pour façonner la législation.

Les participants ont discuté de la quantité croissante de contenu raciste envers les personnes noires dans les espaces en ligne. Quelques participants ont fait remarquer qu’ils ont constaté une augmentation des commentaires négatifs et de la désinformation échangés par rapport aux années précédentes. Les participants ont discuté des différentes plateformes et des formes de contenu raciste envers les personnes noires qui est partagé en ligne. Il a été noté que les jeunes marginalisés devraient être à l’avant-plan des discussions sur la sécurité en ligne en raison du volume de contenu qu’ils consomment en ligne.

Certains participants ont fait remarquer que la législation sur la sécurité en ligne devrait aller au-delà du discours haineux pour inclure du contenu qui peut ne pas être considéré comme un discours haineux, mais qui peut tout de même causer un traumatisme mental et du stress aux victimes, comme le harcèlement ou les microagressions.

La diffusion de la désinformation a été une préoccupation majeure pour de nombreux participants, car elle peut conduire à la diffusion de discours haineux. Beaucoup de gens n’ont ni le temps ni la capacité de vérifier les renseignements qu’ils voient dans les médias sociaux. Cela peut entraîner une transformation de la désinformation en discours haineux en raison de l’ampleur du partage sans contestation. Les participants ont souligné la sophistication de la désinformation qui peut rendre difficile pour les gens de déterminer si un élément de contenu provient d’une source fiable. De nombreux participants ont suggéré que la désinformation devrait être un élément clé de la législation sur la sécurité en ligne.

De nombreux participants étaient frustrés par les systèmes de modération du contenu que les plateformes de médias sociaux utilisent actuellement. Plusieurs participants ont mentionné que les systèmes de signalement de contenu sont lents à répondre aux demandes et qu’ils dépendent des systèmes d’IA plutôt que des interactions humaines, ce qui peut faire en sorte que des renseignements contextuels importants soient négligés par les systèmes d’IA. Les participants ont également soulevé des préoccupations quant au fait que les systèmes de signalement actuels ne sont pas accessibles aux communautés marginalisées qui n’ont peut-être pas la base de connaissances ou la capacité de naviguer dans les systèmes de signalement des plateformes de médias sociaux.

Les participants ont discuté de la nécessité pour les plateformes de médias sociaux d’être plus transparentes dans leurs activités, y compris la façon dont les données personnelles sont recueillies et utilisées, ainsi que leurs décisions en matière de modération du contenu. Les participants étaient en faveur d’exiger que les plateformes de médias sociaux fournissent plus de renseignements sur leurs décisions en matière de modération, en établissant une boucle de rétroaction où les utilisateurs sont informés des facteurs qui ont contribué à une décision en matière de modération du contenu. Quelques participants ont suggéré d’exiger que les plateformes étiquettent ou marquent le contenu suspect, ou affichent un message pour aviser les utilisateurs qu’un examen est en cours.

Les participants étaient en faveur de la création d’un poste d’ombudsman de la sécurité numérique pour tenir les plateformes de médias sociaux responsables et pour permettre aux victimes de signaler les préjudices en ligne. Il a été suggéré que l’ombudsman pourrait agir comme un organisme qui reçoit les plaintes des victimes et travailler avec la plateforme ou l’organisme gouvernemental correspondant pour résoudre la plainte. Certains participants ont exprimé des préoccupations au sujet de la capacité de l’ombudsman de traiter les plaintes des utilisateurs et d’y réagir rapidement. Pour assurer l’efficacité de l’ombudsman, les participants estiment que l’organisme doit disposer de ressources suffisantes pour suivre le rythme des plaintes qu’il reçoit. Quelques participants ont également souligné l’importance pour l’ombudsman d’être formé aux nuances culturelles afin de comprendre les contextes culturels qui sous-tendent le contenu qui lui est présenté.

Les participants se sont dits préoccupés par l’élargissement des pouvoirs des organismes d’application de la loi dans la législation sur la sécurité en ligne. Quelques participants ont fait remarquer que les victimes pourraient être moins enclines à signaler des préjudices en ligne parce qu’elles craignent que des données personnelles soient entrées dans les bases de données de la police ou que les services de police abusent de leur pouvoir à leur égard. Le fait d’avoir un ombudsman comme entité pour mobiliser les organismes d’application de la loi était considéré comme une meilleure solution de rechange.

Les participants ont convenu que des consultations régulières devraient avoir lieu avec les communautés marginalisées et les organisations locales pour veiller à ce que la future législation sur la sécurité en ligne et le travail de l’ombudsman soient adaptés aux expériences des utilisateurs.

Islamophobie

Le 29 septembre, la troisième table ronde thématique a porté sur l’islamophobie. Les participants des organisations représentant la communauté musulmane ont été invités à y participer. Parmi les sujets abordés, mentionnons la nécessité pour le gouvernement de prendre des mesures contre la haine en ligne, le lien entre le préjudice en ligne et en personne, le rôle de l’anonymat dans la promotion du contenu préjudiciable et la nécessité de créer une entité de réglementation.

Les participants ont convenu qu’il était urgent de prendre des mesures pour lutter contre la haine en ligne. Les participants ont discuté du fait que les personnes qui cherchent des recours et de l’aide pour faire face à la haine étaient plus nombreuses dans leur communauté. Il a été souligné que les femmes musulmanes sont plus susceptibles de subir des préjudices en ligne en raison de leur identité intersectionnelle, ce qui les rend plus facilement identifiables.

Les participants ont souligné le lien entre le préjudice en ligne et le préjudice en personne. Plusieurs participants ont fait remarquer qu’un environnement en ligne hostile réduit au silence les voix en ligne, car les gens craignent d’être ciblés. Les participants ont partagé des histoires de personnes utilisant des renseignements personnels qu’ils ont trouvés en ligne pour cibler des personnes virtuellement et en personne.

Quelques participants ont discuté du rôle de l’anonymat en ligne dans l’incitation des utilisateurs à publier du contenu préjudiciable, car ils s’exposent à peu de conséquences. Une solution proposée était que les plateformes introduisent une authentification des utilisateurs qui obligerait les utilisateurs à s’identifier avant de pouvoir publier.

Les participants étaient favorables à l’établissement d’un organisme de réglementation qui aurait le pouvoir d’imposer des pénalités aux plateformes de médias sociaux, d’éduquer le public et de recommander des mesures au gouvernement. Il a été mentionné que les sanctions devront avoir une incidence sur les plateformes de médias sociaux pour les inciter au changement. Quelques participants ont fait remarquer que l’organisme de réglementation devrait avoir une formation de sensibilisation aux différences culturelles pour s’assurer qu’il peut aborder efficacement le contenu lorsqu’une compréhension culturelle est nécessaire. Les participants ont également souligné la nécessité de définir clairement les pouvoirs de l’organisme de réglementation pour la compréhension du public.

De nombreux participants étaient favorables à ce que des personnes de confiance aident les plateformes de médias sociaux et un éventuel organisme de réglementation en faisant des signalements. Certains participants ont demandé qui serait considéré comme un signaleur de confiance et quel genre de mesure un commissaire pourrait prendre sur les conseils de signaleurs de confiance.

Quelques participants ont exprimé des réserves quant à l’inclusion de contenu terroriste dans la loi et ont indiqué d’être prudents avec la définition de cette section. On craignait qu’une définition du contenu terroriste soit discriminatoire à l’égard des communautés marginalisées.

Racisme envers les personnes asiatiques

La table ronde thématique suivante a eu lieu le 13 octobre au sujet du racisme envers les personnes asiatiques. Les participants représentant des organisations de la communauté asiatique du Canada ont été invités à parler de leurs expériences et de leurs points de vue sur la prochaine loi sur la sécurité en ligne. Les questions abordées comprenaient le lien entre les préjudices physiques et en ligne, le besoin d’un plus grand soutien aux victimes, la portée de la future loi et l’importance d’un dialogue continu avec la société civile à mesure que les lois sur la sécurité en ligne sont élaborées.

Les participants ont discuté de la montée en flèche de la haine envers les personnes asiatiques depuis le début de la pandémie, ce qui a eu une incidence sur la vie des Canadiens d’origine asiatique, allant des répercussions négatives sur la santé physique et mentale aux conséquences socioéconomiques. Les participants ont souligné que la haine envers les personnes asiatiques a eu des répercussions négatives sur la santé mentale des jeunes Canadiens d’origine asiatique, ce qui a contribué au sentiment de honte à l’égard de leur identité.

Les participants ont discuté du lien entre la haine en ligne et les préjudices physiques, et de nombreux participants ont décrit des cas où les préjudices en ligne ont eu une incidence sur les moyens de subsistance des victimes. Les participants ont également décrit la nature multidimensionnelle des préjudices, qui peuvent prendre la forme de préjudices physiques, mentaux, émotionnels, psychologiques et sociaux.

De nombreux participants ont exprimé leur frustration face au manque de ressources et de recours disponibles pour signaler la haine envers les Asiatiques. Plusieurs participants ont fait part de leur hésitation à communiquer avec les organismes d’application de la loi au sujet de la haine en ligne en raison de l’inaction de la police dans le traitement de ces incidents. Par conséquent, les gens ne savent pas à qui s’adresser lorsqu’ils sont victimes de haine en ligne.

Les participants ont exprimé le désir que la législation sur la sécurité en ligne mette davantage l’accent sur le soutien aux victimes. Les participants souhaitaient vivement que la loi tienne compte du point de vue des victimes lorsqu’elle établit les obligations législatives des plateformes de médias sociaux et crée des outils de signalement pour les victimes.

Plusieurs participants ont indiqué que le gouvernement devait adopter une approche à deux niveaux pour lutter contre la haine en ligne, qui s’attaque d’abord aux sources de la haine et de la désinformation en ligne dans le Web invisible et, deuxièmement, à la diffusion rapide du contenu sur des plateformes plus traditionnelles. Il a été mentionné que la rhétorique haineuse couvait sur les sites plus petits comme 4chan et Kiwi Farms avant de se répandre au grand public sur des plateformes comme Facebook et Instagram.

Quelques participants ont indiqué que les médias contribuaient à la propagation du racisme envers les personnes asiatiques en raison de leur couverture de certains reportages et à des sections de commentaires en ligne. La section des commentaires des articles de nouvelles en ligne a été signalée comme un espace où le contenu haineux peut se propager et devrait être inclus dans la future législation.

De nombreux participants ont souligné la nécessité d’une approche globale de la lutte contre les préjudices en ligne qui comprend des mesures d’application de la loi rigoureuses pour assurer la conformité. Les participants ont discuté de l’importance d’une future législation prospective pour s’assurer qu’elle reflète les changements dans l’espace en ligne à mesure qu’il évolue. Les participants ont appuyé la création d’un poste d’ombudsman pour les victimes et ont fait remarquer que le bureau doit être accessible à tous les Canadiens.

Les participants ont exhorté le gouvernement à aller de l’avant avec une législation sur la sécurité en ligne et ont exprimé le désir de rester engagés. Ils se sont déclarés très favorables à une législation visant à créer un espace plus sûr en ligne et à responsabiliser les médias sociaux, et ont fait remarquer que la société civile peut fournir des commentaires à mesure que la loi est élaborée et mise en œuvre. Il y avait aussi un vif désir que Patrimoine canadien donne d’autres mises à jour sur l’élaboration du projet de loi.

Violence fondée sur le sexe et violence à l’égard des femmes

Le thème suivant portait sur la violence fondée sur le sexe et la violence à l’égard des femmes. Le 3 novembre, des représentants d’organisations de femmes et des citoyens ont été invités à discuter de leur expérience de la violence fondée sur le sexe en ligne. Les participants ont discuté des difficultés auxquelles sont confrontées les victimes de préjudices en ligne, des sources de préjudices en ligne et des antécédents des plateformes de médias sociaux en matière de modération de contenu préjudiciable. Certains participants ont également fait part de leur expérience personnelle de la haine en ligne et de ses répercussions sur leur vie quotidienne.

Les participants ont soulevé des préoccupations au sujet du niveau d’agressivité dans les espaces en ligne qui peut faire en sorte que des femmes et des personnes de diverses identités de genre soient réduites au silence parce qu’elles craignent d’être ciblées par la haine en ligne. Les participants ont discuté de l’effet de l’anonymat qui encourage les gens à promouvoir leurs points de vue et à se comporter d’une manière avec laquelle ils ne se comporteraient pas autrement en personne.

Les participants ont discuté des difficultés auxquelles les victimes font face lorsqu’elles signalent des cas de préjudice en ligne, y compris l’inaction et le manque de compréhension des organismes d’application de la loi, la lenteur des délais de réaction des plateformes de médias sociaux, le manque de ressources disponibles et le risque de subir d’autres traumatismes. Les participants ont rapporté des histoires de publications en ligne faisant la promotion d’événements ou d’information qui faisaient état d’agressions , de menaces de mort et de commentaires préjudiciables. Ils ont raconté avoir eu besoin de services de protection à la suite de harcèlement en ligne, avoir été mis physiquement en danger et avoir dû être escortés par la police hors d’un campus après avoir donné une présentation diffusée en direct sur Facebook. Certains ont indiqué que même lorsqu’ ils signalaient des commentaires préjudiciables à la plateforme et que le contenu était retiré, les auteurs se déplaçaient vers une autre plateforme. Les participants ont décrit leur frustration face au manque d’options à leur disposition pour gérer de tels incidents.

De nombreux participants ont souligné la nécessité de réglementer les petites plateformes, car la haine en ligne tend à provenir de plus petites plateformes avant de se diriger vers les grandes plateformes traditionnelles. Les participants ont discuté du rôle des médias sociaux pour ce qui est de donner aux personnes qui ont des points de vue misogynes une plateforme pour répandre leur rhétorique, ce qui présente ensuite le risque que la population soit radicalisée et enhardie par ces points de vue.

Plusieurs participants ont exprimé leur frustration à l’égard du temps que prennent les plateformes pour réagir au contenu signalé. On fait remarquer que le retard à agir permet au contenu haineux d’atteindre un vaste auditoire avant d’être retiré. Certains participants doutent qu’une approche fondée sur le risque puisse avoir une incidence positive sur les délais de réaction de la plateforme.

Les participants ont insisté sur la nécessité de prendre des mesures préventives contre les préjudices en ligne plutôt que d’attendre et d’intervenir en cas de préjudice. Les participants ont mentionné des mesures telles que des campagnes de littératie numérique, une meilleure éducation sur la façon dont les gens devraient se comporter en ligne et le financement de groupes universitaires et de la société civile pour mener des recherches et développer des ressources éducatives.

Les participants ont fait part de leurs réserves à l’idée de permettre aux plateformes de médias sociaux de s’autoréglementer en raison de leurs antécédents en matière de réaction au contenu signalé. L’utilisation continue de l’IA et des algorithmes a également suscité du scepticisme en raison de la façon dont ces systèmes sont utilisés pour diffuser du contenu préjudiciable aux utilisateurs.

Les participants étaient en faveur de la création d’un poste d’ombudsman chargé d’interagir avec les plateformes de médias sociaux au nom des Canadiens. Il a été noté qu’il est essentiel de veiller à ce que l’ombudsman soit accessible aux Canadiens pour que les plateformes de médias sociaux soient tenues responsables des décisions de modération du contenu.

Les participants ont exprimé des préoccupations quant à la possibilité de conférer d’autres pouvoirs aux organismes d’application de la loi dans la législation sur la sécurité en ligne. Les participants avaient de sérieuses hésitations quant à la participation des forces de l’ ordre et des agences de renseignement, compte tenu de l’absence de confiance entre les communautés dignes d’équité et les forces de l’ordre. Ils ont conclu que les organismes d’application de la loi ne répondaient pas à leurs préoccupations ou ne prenaient pas suffisamment de mesures pour régler les cas de préjudices en ligne. Certains ont dit que, d’ après leur expérience, le fait d’aller à la police leur a causé plus de tort que de protection. Si les organismes d’application de la loi sont inclus dans le cadre, certains participants ont exprimé le désir d’une meilleure coordination entre les organismes d’application de la loi et le système judiciaire pour traiter les cas de préjudices en ligne.

Les participants étaient généralement en faveur d’une approche fondée sur les risques pour promouvoir la sécurité en ligne et ont proposé quelques ajouts qui pourraient renforcer davantage un cadre de sécurité en ligne, y compris l’établissement de normes et de directives claires sur la façon dont les plateformes devraient effectuer leurs évaluations des risques et l’inclusion au cadre d’une approche qui tienne compte des traumatismes qui soit intersectionnelle et fondée sur les droits.

Industrie de la technologie

La dernière table ronde virtuelle a eu lieu le 17 novembre avec des représentants de l’industrie de la technologie. Les participants ont discuté des mesures actuelles que les plateformes prennent pour promouvoir la sécurité en ligne, de la nécessité de veiller à ce que la législation reflète la nature diversifiée des diverses plateformes et d’une plus grande clarté de certains éléments de l’approche du gouvernement en matière de sécurité en ligne.

Les participants ont discuté des diverses mesures que leurs plateformes respectives ont mises en place pour protéger les utilisateurs, y compris les processus de modération du contenu, les restrictions relatives au contenu selon l’âge, les fonctionnalités conçues en fonction de l’âge et les plateformes spécialisées pour les enfants. Quelques participants ont souligné l’importance de renseigner les utilisateurs sur le fonctionnement des plateformes et se sont montrés favorables à l’établissement de campagnes et ressources éducatives pour informer les utilisateurs sur le fonctionnement de l’espace en ligne.

Les participants ont indiqué qu’il était important que la législation sur la sécurité en ligne tienne compte des différences entre les différentes plateformes. Les participants ont relevé de nombreux facteurs à prendre en considération lorsqu’on évalue les différences entre les plateformes, y compris le contrôle qu’une plateforme exerce sur son contenu, l’objectif de la plateforme et la base d’utilisateurs. Les participants ont appuyé une approche fondée sur le risque qui est souple et qui reflète la diversité au sein de l’industrie.

De nombreux participants ont demandé que les définitions et les obligations qui feraient partie d’un nouveau cadre législatif soient plus claires afin qu’ils puissent respecter leurs obligations. Les participants craignaient que les définitions soient trop générales, ce qui poserait des difficultés au moment d’opérationnaliser les définitions dans leurs processus de modération du contenu. Les participants ont exprimé le désir de faire preuve de souplesse dans la façon dont ils peuvent s’acquitter de leurs obligations pour veiller à ce que le cadre soit adaptable aux différents types de plateformes. Plusieurs participants ont souligné l’importance d’inclure la protection en matière de responsabilité des intermédiaires dans un cadre législatif.

Les participants ont demandé des précisions sur le rôle et les responsabilités d’un organisme de réglementation de la sécurité numérique. Les participants ont fait remarquer que l’organisme de réglementation devrait avoir les ressources nécessaires pour gérer son volume de travail et avoir une bonne compréhension de l’industrie de la technologie. Les participants craignaient qu’un organisme de réglementation n’ait pas la capacité de traiter le volume élevé de plaintes déposées par les utilisateurs. Plusieurs participants ont exprimé des réserves quant à l’idée de rétablir le contenu retiré qu’ils jugeaient en violation des modalités de leur plateforme.

Communautés autochtones

Le 24 novembre, Archipel, un organisme tiers, en collaboration avec Patrimoine canadien, a tenu un cercle de partage avec des victimes autochtones et des groupes de défense des droits sur les éléments clés d’un cadre de sécurité en ligne.

Prochaines étapes

Les commentaires recueillis lors des tables rondes ont fourni des renseignements précieux et des idées sur ce que les Canadiens et les principaux intervenants espèrent voir inclus dans une future loi. Patrimoine canadien s’inspirera de l’information recueillie lors des tables rondes pour élaborer des politiques et une loi. Conformément à sa lettre de mandat, le ministre du Patrimoine canadien continue de travailler avec le ministre de la Justice et p rocureur général du Canada au dépôt d’un projet de loi qui vise à protéger les enfants, les communautés, les groupes dignes d’équité et les Canadiens le plus tôt possible.

Annexe

Organisations qui ont participé aux tables rondes sur la sécurité en ligne de juillet à novembre 2022

Tables rondes régionales

Charlottetown (Île-du-Prince-Édouard)
  1. Black, Indigenous, People of Colour United for Strength, Home Relationship
  2. Native Council of Prince Edward Island
  3. Women’s Network PEI
  4. Greater Charlottetown Area Chamber of Commerce
  5. Adventure Group
  6. Public Schools Branch (conseil scolaire public) de l’Île-du-Prince-Édouard
  7. Service de police de Charlottetown
  8. PEI Transgender Network
  9. Muslim Society of P.E.I.
Moncton (Nouveau-Brunswick)
  1. Association musulmane de Moncton (en anglais seulement)
  2. La Société de l’Acadie du Nouveau-Brunswick
  3. Tiferes Israël Synagogue
  4. Conseil culturel du Nouveau-Brunswick
  5. Fédération des jeunes francophones du Nouveau-Brunswick
  6. YWCA
  7. Indo-Canada Association of the Greater Moncton Area
  8. Pays de la Sagouine
St. John’s (Terre-Neuve-et-Labrador)
  1. The Pathways Foundation
  2. First Light : St. John’s Friendship Centre
  3. Lifewise NL
  4. NL Sexual Assault Crisis and Prevention Centre
  5. Muslim Association of Newfoundland and Labrador
  6. THRIVE Community Youth Network
  7. YWCA
  8. Muslim Association of Newfoundland and Labrador
Québec (Québec)
  1. Programme d’encadrement clinique et d’hébergement
  2. Centre culturel islamique de Québec
  3. SOS suicide jeunesse
  4. Les enfants d’abord Canada
  5. R.I.R.E.
  6. GRIS-Québec
Montréal (Québec)
  1. Fondation pour l’éducation sur l’Holocauste et la prévention du génocide
  2. Les AMIS
  3. Forum musulman canadien
  4. Montreal Institute for Genocide and Human Rights Studies, Université Concordia
  5. Conseil canadien des femmes musulmanes – Section de Montréal
  6. Conseil de la communauté juive de Montréal
  7. Service à la famille chinoise du grand Montréal
  8. La Ligue des Noirs du Québec
  9. Fondation Marie-Vincent
  10. Fondation Jasmin Roy
  11. Les 3 sex
  12. Centre consultatif des relations juives et israéliennes
  13. Centre de recherche-action sur les relations raciales
Edmonton (Alberta)
  1. Mexican Society of Edmonton
  2. LEAF Edmonton
  3. Ribbon Rouge Foundation
  4. Support our Students
  5. REACH Edmonton
  6. Young Canadian’s Parliament
  7. Conseil national des musulmans canadiens
  8. Islamic Family and Social Services Association
  9. Stride Advocacy
  10. Organization for Prevention for Violence
  11. Don’t Click Youth Group
Saskatoon (Saskatchewan)
  1. La Fédération des francophones de Saskatoon
  2. Conseil national des musulmans canadiens
  3. Concentus Citizenship Education Foundation
  4. Out Saskatoon
  5. Truly Alive Youth and Family Foundation
  6. Saskatoon Indian and Métis Friendship Centre
  7. Commission des droits de la personne de la Saskatchewan
Niagara (Ontario)
  1. TOES Niagara
  2. Conseil du patrimoine et centre multiculturel de Welland
  3. YWCA Niagara
  4. Niagara Region Anti Racism Association
  5. Gillian’s Place
  6. Le Human Rights and Equity Office de l’Université Brock
  7. Pathstone Mental Health
  8. Future Black Female
  9. Niagara Sexual Assault Centre
Surrey (Colombie-Britannique)
  1. Amanda Todd Legacy Society
  2. OpenMedia
  3. Organized Crime Agency of BC
  4. Constituency Youth Council
  5. Le Digital Democracies Institute de l’Université at Simon- Fraser
  6. La bibliothèque de l’Université de la Colombie-Britannique
  7. Surrey Schools (commission scolaire)
  8. KidsPlay Foundation
Winnipeg (Manitoba)
  1. Besoins inc.
  2. Centre Communautaire et Familial Bilal
  3. Magnet Strategy Group Inc.
  4. L’Université Manitoba
  5. Winnipeg RISE
  6. Teen Stop Jeunesse inc.
  7. Centre canadien de protection de l’enfance
  8. Conseil ethnoculturel du Manitoba
  9. Syndicat des étudiants de l’Université du University of Manitoba
  10. Islamic Social Services Association
  11. Université de Winnipeg
  12. Youth Parliament of Manitoba
  13. African Communities of Manitoba Inc
Windsor (Ontario)
  1. Big Brothers Big Sisters Windsor Essex
  2. India Canada Association Windsor Essex
  3. Épelle-Moi Canada
  4. Essex County Chinese Canadian Association
  5. New Beginnings Essex County
  6. Hiatus House
  7. The Safety Village
  8. The Windsor Youth Centre
  9. Windsor Essex Child/Youth Advocacy Centre
  10. Windsor Women Working With Immigrant Women
Halifax (Nouvelle-Écosse)
  1. ARAISA
  2. Sabeel Muslim Youth and Community Center
  3. Muslim Society de l’Université Saint Mary’s
  4. Atlantic Jewish Council
  5. Unité des crimes haineux de la police de Halifax
  6. Black Cultural Centre for Nova Scotia
Nord du Canada
  1. Association canadienne pour la santé mentale, Canadian Mental Health Association, Yukon Division du Yukon
  2. Yukon Status of Women Council
  3. Pinnguaq Association
  4. Nunavut Black History Society
  5. Aqqiumavvik Society
  6. Bibliothèque Donald Suluk
  7. Arctic Afro Cultural Association
  8. Black Advocacy Coalition
  9. Ville d’Iqaluit
  10. Northern Mosaic Network

Tables rondes thématiques

Antisémitisme
  1. Centre consultatif des relations juives et israéliennes
  2. Max and Tessie Zelikovitz Centre for Jewish Studies
  3. Canadian Anti-Hate Network
  4. B’nai Brith Canada
  5. Atlantic Jewish Council
  6. Areto Lab
  7. Jewish Federation of Ottawa
  8. Laad Canada
  9. Hillel Ontario
  10. JSpaceCanada
  11. Friends of Simon Wiesenthal Center for Holocaust Studies
Racisme envers les personnes noires
  1. African Canadian Civic Engagement Council
  2. Fonds de prospérité pour l’avancement des communautés noires
  3. Black Diplomats Academy Fellow
  4. Black Cultural Centre for Nova Scotia
Islamophobie
  1. Centre Culturel Islamique de Québec
  2. Coalition of Muslim Women of Kitchener-Waterloo
  3. Conseil national des musulmans canadiens
  4. Muslim Advisory Council of Canada
  5. Le conseil canadien des femmes musulmanes
  6. African Civic Engagement Council
  7. Islamic Society of Kingston
  8. Forum musulman canadien
  9. Institut canado-arabe
  10. National Black Coalition of Canada Society/Somali Canadian Cultural Society Edmonton
Racisme envers les personnes asiatiques
  1. Chinese Canadian National Council for Social Justice
  2. Centre Sino-Québec de la Rive-Sud
  3. ACCT Foundation
  4. SUPRE Incorporated
  5. Canada Committee 100 Society
  6. Hong Fook Mental Health Association
  7. Fondation canadienne du patrimoine et de l’avenir chinois
  8. Fondation canadienne des relations raciales
Violence basée sur le sexe et violence à l’égard des femmes
  1. Ending Violence Association
  2. Fondation canadienne des femmes
  3. Hébergement Femmes
  4. YWCA
  5. Fonds d’action et d’éducation juridique pour les femmes (FAEJ)
  6. Alliance canadienne pour la réforme des lois sur le travail du sexe
  7. Le réseau Enchanté
  8. Centre canadien de la diversité des genres et de la sexualité
  9. Justice Trans
  10. Council of Agencies Serving South Asians
  11. Le conseil canadien des femmes musulmanes
  12. Luke’s Place
  13. Université d’Ottawa
  14. BC Society Of Transition Houses
  15. Women’s Health in Women’s Hand
  16. White Ribbon
Industrie de la technologie
  1. TikTok
  2. Google Canada
  3. YouTube Canada
  4. Microsoft
  5. Wattpad/Rubicon Strategy
  6. Tucows
  7. TechNation
  8. Opérateurs des réseaux concurrentiels canadiens
  9. Association canadienne du logiciel de divertissement
  10. Fondation Wikiméedia
  11. Twitch
  12. Meta
  13. MindGeek

Détails de la page

Date de modification :