Résumé de la sixième séance : liberté d'expression et autres droits

Le Groupe consultatif d'experts sur la sécurité en ligne a tenu sa sixième session le 20 mai de 13h00 à 16h00 EDT sur la liberté d'expression et autres droits. Dix membres étaient présents. Des représentants des ministères du Patrimoine canadien, de la Justice, de l'Innovation, des Sciences et du Développement économique, de la Sécurité publique, des Femmes et de l'Égalité des sexes et du Bureau du Conseil privé se sont joints au Groupe consultatif. Des représentants de la Gendarmerie royale du Canada étaient également présents.

Le présent résumé donne un aperçu de la sixième session. Conformément au mandat du groupe consultatif, ces sessions fonctionnent selon la règle de Chatham House. Ainsi, ce résumé n'attribue pas les opinions exprimées à un membre du groupe ou à une organisation en particulier. Il présente les points de vue exprimés au cours de la session, signale les domaines d'accord, de désaccord et de discussion, et organise la discussion en catégories thématiques. Il ne doit pas être considéré comme une récitation verbatim de la discussion.

La question de discussion de l'atelier était la suivante : "Comment le gouvernement peut-il protéger et promouvoir au mieux la liberté d'expression et d'autres droits dans le cadre législatif et réglementaire qu'il propose pour lutter contre les contenus préjudiciables en ligne?"

Les objectifs de la session étaient les suivants :

  1. Obtenir une rétroaction sur les éléments de la proposition qui suscitent des inquiétudes quant à la liberté d'expression, au droit à l'égalité et au droit à la vie privée des utilisateurs;
  2. Déterminer s'il existe des groupes ou des communautés dont le droit à la vie privée, le droit à l'égalité ou la liberté d'expression seraient affectés de manière disproportionnée par la proposition de réglementation;
  3. Identifier les garanties et les mesures d'atténuation possibles pour répondre aux préoccupations relatives à la préservation et à la protection de la liberté d'expression, des droits à l'égalité et des droits à la vie privée des utilisateurs ; et
  4. Déterminer s'il existe d'autres approches efficaces de réglementation qui permettraient d'atteindre les objectifs tout en limitant l’interférence avec les droits garantis par la Charte.

Le présent résumé rend compte des points de vue soulevés par rapport à ces objectifs et organise les points de discussion en fonction de thèmes spécifiques.Note de bas de page 1

Thème A: Droits de la Charte

Protéger les droits de la Charte

De nombreux experts ont souligné qu'une approche législative réussie devrait équilibrer les droits et libertés. Les experts ont souligné l'importance de reconnaître que tous les droits de la Charte sont interdépendants et qu'aucun droit n'a la priorité sur les autres. Ils ont expliqué que déterminer comment équilibrer les droits sera une tâche cruciale, mais difficile, à accomplir. Certains experts ont également souligné que les droits internationaux de la personne devraient être pris en compte.

De nombreux experts ont évoqué les aspects les plus problématiques de la précédente approche proposée en 2021 par le gouvernement du point de vue des droits de la Charte. Ils ont expliqué que l'obligation de retrait dans les vingt-quatre heures envisagées par le gouvernement l'été dernier aurait incité structurellement les plateformes à sur-censurer les discours en ligne en privilégiant la rapidité du retrait du contenu à son exactitude. Les experts ont également cité les obligations de surveillance proactive des contenus comme étant problématiques du point de vue de la liberté d'expression et de la vie privée. De nombreux experts ont expliqué que dans la mesure où une nouvelle approche systémique fondée sur le risque n'inclurait pas ces éléments, elle réduirait le risque d'atteinte aux droits de la Charte. Les experts ont expliqué comment d'autres dispositions de la proposition de 2021, à savoir le signalement obligatoire de contenus aux forces de l'ordre sur la base d'un seuil de suspicion, au lieu d'une connaissance réelle, ainsi que le blocage de sites web, ont également soulevé des préoccupations liées à la Charte. Dans l'ensemble, de nombreux experts ont déclaré que l'abandon de la réglementation de catégories particulières de contenus au profit d'une approche exigeant des entreprises qu'elles adoptent une approche axée sur la conception et fondée sur les risques pour traiter les contenus préjudiciables pourrait être moins problématique. Toutefois, les experts ont souligné que la conformité à la Charte dépendra largement des détails du régime.

Les experts ont exploré de multiples façons de préserver les droits et libertés fondamentaux. Par exemple, certains experts ont souligné qu'il serait nécessaire de préciser clairement dans la législation quels sont les contenus à réglementer, afin d'empêcher les services réglementés d'interpréter leur mandat de manière trop large, ce qui pourrait conduire à une censure excessive. Les experts ont également suggéré de prévoir des mécanismes de recours clairs, accessibles, équitables et transparents pour les utilisateurs comme autre moyen de préserver les droits des utilisateurs. D'autres experts ont souligné que l'obligation d'agir de manière responsable ne devrait pas seulement porter sur l'atténuation des dommages, mais aussi sur la protection des valeurs de la Charte. Enfin, de nombreux experts ont déclaré que la protection de tous les droits devrait être explicitement énoncée dans le préambule de la loi. Sur ce dernier point, certains experts ont souligné qu'un préambule fort sera nécessaire, un préambule qui fait référence à la façon dont tous les droits de la Charte interagissent ensemble plutôt qu’un préambule qui distingue certains droits. D'autres experts ont indiqué que tout préambule doit expliquer explicitement la liberté d'expression, en précisant qu'elle inclut le droit d'exprimer des opinions déplaisantes, offensantes et impopulaires et le droit de former nos opinions sans interférence.

Article 35: Droits autochtones et droits issus de traités

Certains experts ont souligné que lorsqu'on parle des droits de la Charte, il est essentiel de parler également de l'article 35 de la Constitution sur les droits des autochtones et les droits issues de traités. Ils ont fait valoir que le discours sur le devoir de diligence peut ne pas s'aligner sur les droits de l'article 35, et qu'à ce titre, ils préfèrent le devoir d'agir de manière responsable. Les experts ont précisé que les droits de l'article 35 sont accordés à un groupe et non à un individu. Ils ont expliqué que souvent, un plaignant spécifique et sa communauté sont cités dans une réclamation au titre de l'article 35. En revanche, un devoir de diligence, ont-ils déclaré, est dû à une personne spécifique. Les experts ont expliqué que le devoir de diligence risquerait de causer un préjudice plus individuel que communautaire. Ils ont suggéré qu'une obligation d'agir de manière responsable serait plus appropriée car elle pourrait être due à une communauté, ce qui correspondrait mieux à l'article 35.

Liberté d'expression

Certains experts ont souligné que la loi sur la liberté d'expression est sous-développée au Canada, et dans le monde, lorsqu'il s'agit de questions de modération de contenu. Les experts ont déclaré qu'il existe un certain nombre de difficultés à résoudre. Par exemple, ils ont expliqué qu'il est très difficile de déterminer quand l'expression déclenche la responsabilité pénale, car il faut déterminer l'intention. Ils ont également souligné que la liberté d'expression ne traite pas très bien les préjudices cumulatifs ou les préjudices nouveaux. Par exemple, ils ont expliqué qu'il est difficile de concilier la question de la désinformation avec la liberté d'expression. Certains experts ont souligné que c'est la raison pour laquelle une approche systémique large basée sur le risque est appropriée, car il est difficile et risqué de tracer des lignes dans la législation pour déterminer exactement quand le contenu doit être modéré.

Certains experts se sont demandé où devaient se situer les limites de la liberté d'expression. Ils ont demandé s'il était judicieux de tolérer une théorie raciste, qui inciterait inévitablement les gens à être violents. Certains experts ont souligné que le droit à la liberté d'expression inclut le droit d'offenser. D'autres experts ont affirmé qu'il était acceptable d'avoir un niveau de responsabilité plus élevé en ligne qu'hors ligne, car l'environnement en ligne permet aux utilisateurs de se cacher et de ne pas être tenus responsables de leurs propos.

Certains experts ont souligné que la portée du contenu réglementé est essentielle pour déterminer si le droit à la liberté d'expression est enfreint. Par exemple, ils ont expliqué que des mesures plus strictes peuvent être prises à l'encontre de certains types de contenus, comme ceux qui portent atteinte aux enfants. Ils ont fait valoir que le contenu doit être défini et délimité de manière suffisamment détaillée dans la législation. Les experts ont souligné que le projet de loi sur la sécurité en ligne du Royaume-Uni est critiqué pour son manque de spécificité concernant les définitions légales des contenus préjudiciables et illégaux. Certains experts ont cité la définition utilisée dans la loi australienne sur la sécurité en ligne, qui inclut les contenus "susceptibles d'avoir pour effet de menacer sérieusement, d'intimider sérieusement, de harceler sérieusement ou d'humilier sérieusement un enfant australien". Les experts ont fait valoir qu'une telle approche devrait être le modèle pour le contenu préjudiciable dans le champ d'application dans un contexte canadien, car elle offre une voie claire et défendable pour réglementer le contenu préjudiciable tout en protégeant la liberté d'expression des utilisateurs. D'autres experts ont déclaré que la meilleure façon de protéger la liberté d'expression serait d'adopter un cadre général qui ne définit pas le contenu de façon détaillée.

De nombreux experts ont souligné que le discours de haine soulève des complexités concernant la liberté d'expression. Certains s'inquiètent du fait que la liberté d'expression puisse être utilisée pour justifier le discours de haine. D'autres experts ont souligné que les gens ont le droit d'être ignorants et offensants, mais que lorsque des remarques ignorantes et offensantes déclenchent des attaques violentes, elles prennent un degré de gravité différent et plus élevé. Les experts ont souligné qu'il est difficile mais important de déterminer quand un contenu franchit cette ligne. D'autres experts ont fait valoir que les mots seuls ne provoquent pas d'attaques violentes et ont insisté sur le fait qu'une foule d'autres facteurs entrent en jeu et doivent également être pris en considération. La nature à multiples facettes de nombreuses attaques violentes, expliquent-ils, rend d'autant plus difficile l'étendue et la définition du contenu réglementé. Certains experts ont introduit une autre complexité avec le discours de haine, expliquant que lorsque la haine n'est pas exprimée contre un groupe protégé, les plateformes ont beaucoup de mal à déterminer ce qu'il faut en faire. Par exemple, expliquent-ils, la haine contre les journalistes ou les professionnels de la santé est difficile à modérer pour les plateformes, car il ne s'agit pas de groupes protégés par la Charte.

Droit à la vie privée

Certains experts ont mis en garde contre le fait d'exiger ou même d'encourager une surveillance proactive ou générale par les services réglementés. Ils ont déclaré qu'une surveillance spécifique pourrait peut-être être justifiée dans certaines circonstances, mais même dans ce cas, la jurisprudence a démontré qu'il est très difficile de justifier un tel système car il est très difficile d'identifier la différence entre une surveillance générale et une surveillance spécifique.

Certains experts ont souligné que la réforme de la protection de la vie privée doit être introduite avant, ou au moins en tandem avec, un cadre réglementaire sur les préjudices en ligne. Ils ont insisté sur le fait qu'une telle réforme s'attaquerait à la structure globale qui détermine le comportement des plateformes. Les experts ont fait valoir que bon nombre des problèmes les plus importants rencontrés dans la sphère en ligne - y compris l'amplification de contenus problématiques - peuvent être attribués à des protections de la vie privée relativement peu développées au Canada.

Certains experts ont mis en garde contre l'obligation de fournir des informations sur les utilisateurs aux organismes d'application de la loi lorsqu'aucun acte illégal n'est commis. Les experts ont souligné que certains groupes marginalisés pourraient être ciblés par de telles mesures. Ils ont insisté sur le fait que pour protéger le droit à la vie privée des utilisateurs, de telles obligations devraient être clairement circonscrites en ce qui concerne le seuil de partage des informations, l'endroit où les informations sont stockées et pendant combien de temps, et qui a accès à ces données.

Certains experts ont expliqué que les services de messagerie privée devraient être réglementés. Ils ont fait valoir que l'exclusion des services de messagerie privée réduirait la capacité du cadre à s'attaquer au contenu de l'exploitation sexuelle des enfants de manière significative. Les experts ont souligné que l'exemption de la messagerie privée du cadre réglementaire encouragerait les délinquants à utiliser au maximum les espaces publics pour entrer en contact avec d'autres délinquants ou des enfants, puis à passer rapidement aux espaces privés avant de franchir la ligne de démarcation vers une activité illégale/préjudiciable, sachant qu'ils seront protégés. Ils ont insisté sur le fait qu'en exemptant les services de messagerie privée, le cadre donnerait effectivement aux entreprises la permission de fournir l'infrastructure nécessaire au partage de matériel d'exploitation sexuelle d'enfants sans leur imposer aucune obligation d'empêcher cet hébergement

Thème B: Approche systémique de la réglementation fondée sur le risque

Éléments clés

Les experts ont examiné les éléments fondamentaux d'une approche systémique de la réglementation de la sécurité en ligne fondée sur le risque. Premièrement, de nombreux experts ont souligné que l'organisme de réglementation devrait jouer un rôle d'éducation du public en matière de prévention des préjudices. Selon eux, ce rôle aiderait les Canadiens, les entreprises et les organisations à comprendre et à alimenter une approche fondée sur le risque. Deuxièmement, de nombreux experts ont souligné qu'un cadre fondé sur le risque devrait reposer sur le devoir d'agir de manière responsable. Ils ont expliqué que les services réglementés devraient avoir le devoir de mettre en œuvre des outils et des systèmes qui aident à prévenir les dommages à leurs utilisateurs. Ils ont souligné qu'un tel cadre ne permettrait pas de prévenir tous les dommages et que la suppression de tous les contenus préjudiciables en ligne n'est pas un objectif réalisable. Troisièmement, de nombreux experts ont souligné que, dans les situations où les dommages ne sont pas évités, il doit y avoir un mécanisme de réparation à la fois au niveau de la plateforme et par le biais d'un organisme indépendant. Enfin, les experts ont convenu qu'une consultation continue serait nécessaire pour assurer un dialogue soutenu sur la manière dont les services définissent le risque et sur l'évolution du risque dans le temps. Les experts ont insisté sur la nécessité de créer un cadre réglementaire qui soit suffisamment dynamique et adaptable aux changements technologiques, mais qui reflète également l'évolution des préoccupations et des intérêts sociaux. Sur ce dernier point, ils ont souligné qu'une consultation permanente permettrait de développer des systèmes et des processus efficaces pour gérer les risques. Certains experts ont également déclaré qu'il est crucial que la législation définisse le risque d'une manière qui non seulement inclut les points de vue des communautés historiquement marginalisées, mais qui leur permette de s'engager en permanence dans le régime et de l'alimenter afin de refléter les expériences vécues par les victimes.

De nombreux experts ont souligné que les obligations de transparence doivent être structurées de manière à permettre aux experts de ce domaine d'étudier efficacement la sécurité en ligne. Ils ont souligné qu'il est crucial que toute législation garantisse que les chercheurs et les universitaires aient accès aux informations des services réglementés sur la modération du contenu, afin qu'ils puissent étudier la propagation et l'impact du contenu préjudiciable au Canada. Les experts ont expliqué que la recherche pourrait ensuite alimenter le modèle fondé sur les risques, permettant ainsi aux universitaires et aux chercheurs de contribuer au processus de gestion des risques. Ils ont suggéré qu'une partie de l'obligation d'agir de manière responsable consisterait à donner suite à toute nouvelle recherche sur la sécurité en ligne.

Les experts ne sont pas d'accord sur le rôle que la législation devrait jouer pour définir comment les services réglementés devraient agir sur le contenu. Certains experts ont souligné que la législation devait laisser aux entreprises le soin de déterminer le type d'action approprié pour gérer leurs propres risques. D'autres experts ont demandé des exigences et des normes plus détaillées concernant le type d'action à mener pour remplir leur obligation d'agir de manière responsable.

Recours

Les experts ne sont pas d'accord sur la nécessité et la structure d'un mécanisme de recours externe pour les décisions de modération de contenu. Certains experts ont expliqué qu'un mécanisme de recours externe prendrait trop de temps pour faire retirer un contenu. Les experts ont également souligné qu'il serait très difficile de garantir qu'un tel organisme de recours respecte la Charte, car il serait très difficile d'élaborer des normes juridiques pour définir les types de contenu à retirer. Au lieu de cela, les experts ont souligné qu'il fallait s'efforcer d'amener les services réglementés à "bien faire les choses dès le départ", en veillant à ce qu'ils mettent en œuvre des mécanismes efficaces d'identification, de modération et de recours, soumis à la transparence, à la surveillance et à la responsabilité. D'autres experts ont souligné qu'un mécanisme de recours pour certaines circonstances étroites est nécessaire pour garantir que les groupes vulnérables touchés par des contenus préjudiciables disposent d'un recours. Par exemple, expliquent-ils, s'il y a une allégation de partage non consensuel d'une image intime, l'image devrait être retirée jusqu'à preuve du contraire. Pour d'autres types de contenu, ils insistent sur le fait que les conditions de retrait sont différentes et que les ordres de retrait ne sont probablement pas appropriés. Les experts ont mis en garde contre le fait qu'un organisme de recours ne serait pas en mesure de fonctionner à la vitesse nécessaire pour suivre la quantité de contenu, ce qui pourrait être problématique. Ils ont suggéré que tout organisme indépendant soit réservé aux recours moins urgents, et qu'une relation de collaboration entre l'organisme indépendant et les services réglementés soit encouragée afin d'exercer un effet de levier sur le retrait pour certains contenus.

Applicabilité: Tragédie de Buffalo

Les experts ont discuté de la récente fusillade de Buffalo, en analysant les facteurs qui ont contribué à la tragédie et en réfléchissant à la façon dont un modèle canadien fondé sur le risque aurait pu faire face à la situation. Certains experts ont souligné que l'attaque révèle que le statu quo concernant la modération du contenu des plateformes n'est plus acceptable. Ils ont expliqué comment l'auteur de l'attentat a utilisé la communication en ligne et a été influencé par celle-ci. Ils ont expliqué comment l'auteur de l'attentat a utilisé la communication en ligne et a été influencé par celle-ci. Les experts ont déclaré qu'un cadre réglementaire fondé sur le risque aurait pu introduire un délai pour la diffusion en direct de vidéos afin de freiner la propagation de ces contenus. D'autres experts ont soulevé le fait que l'auteur de l'attaque a inclus des détails sur son projet d'attaque sur une page privée en ligne. Ils ont expliqué que le droit à la vie privée de l'auteur de l'attentat aurait pu être violés si la plateforme avait surveillé sa page privée, mais qu'une telle surveillance aurait pu empêcher l'attentat. Enfin, les experts ont expliqué que cette tragédie démontre l'importance de la collaboration entre plateformes, car les auteurs d'attentats publient souvent le même contenu sur plusieurs plateformes pour en maximiser la portée.

Les experts ont également discuté de l'impact d'internet sur les événements haineux et violents. Certains experts ont souligné qu'Internet a joué un rôle dans l'incitation à de telles attaques en permettant aux auteurs de publier des manifestes et autres ouvrages qui atteignent rapidement un public mondial. Ils ont souligné que de telles informations peuvent désormais être produites, reproduites et transmises à l'infini et à grande vitesse. Cependant, d'autres experts ont évoqué des exemples historiques de haine, comme l'holocauste, pour souligner que les abus, les crimes de haine et la violence à motivation idéologique avaient une grande portée avant même l'arrivée d'Internet. Ces experts ont mis en garde contre la "nostalgie de l'âge d'or", expliquant que même dans le monde pré-internet, les technologies de communication étaient utilisées pour porter atteinte à la sécurité et aux droits des minorités. Ils ont suggéré qu'au lieu de s'intéresser à la vitesse à laquelle les messages haineux sont diffusés, il serait utile d'examiner les goulots d'étranglement à ce partage d'informations, afin d'évaluer comment un cadre réglementaire pourrait être en mesure de créer des frictions contre la prolifération de ces contenus aujourd'hui.

Sensibilisation du public

Certains experts ont souligné que si les Canadiens ne comprennent pas la législation ou le cadre réglementaire, ils n'en tireront aucun avantage. Les experts ont souligné qu'une personne devrait être en mesure de comprendre le cadre même si elle n'est pas très au fait du droit canadien. Les experts ont expliqué que si les communautés que le cadre tente de protéger ne comprennent pas le cadre et son fonctionnement, il ne sera pas utilisé à son plein potentiel. Pour remédier à cette situation, les experts ont suggéré que le gouvernement mette l'accent sur l'éducation, en particulier pour les personnes et les communautés qui seront les plus touchées par le cadre. Certains experts ont suggéré qu'une campagne d'éducation sur ce qu'est la liberté d'expression au Canada serait un élément important de ces activités de sensibilisation. D'autres ont souligné que le fait de fournir une éducation et un soutien aux services réglementés, en particulier aux petites plateformes qui ne disposent pas encore de ressources sophistiquées, les aiderait à comprendre comment mettre en œuvre au mieux leur devoir d'agir de manière responsable.

Thème C: Engagement supplémentaire

Engagement des parties prenantes

Le ministère et la co-présidence du groupe d'experts ont présenté une voie à suivre pour l'engagement des parties prenantes. Ils ont proposé de ne pas s'engager largement auprès des parties prenantes en raison de contraintes de temps et d'une préoccupation fondamentale des experts quant au fait qu'ils ne sont pas équipés ou les mieux placés pour mener un processus complet d'engagement des parties prenantes. Au lieu de cela, les experts rencontreraient des fonctionnaires de quelques juridictions internationales sélectionnées afin de prendre connaissance des leçons tirées d'autres cadres législatifs et réglementaires similaires. Ces discussions auraient pour but d'aider le groupe d'experts à présenter au gouvernement des conseils sur ce que pourrait être, selon eux, un cadre en ligne efficace. Aucun autre engagement des parties prenantes ne serait attendu du groupe d'experts. Au lieu de cela, le gouvernement mènerait un autre engagement substantiel et intentionnel de son côté après la conclusion du travail du groupe, pour vérifier et tester certaines des idées fondamentales qui ont été exprimées au cours des ateliers du groupe d'experts.

Le ministère et la co-présidence ont également reconnu que les membres du groupe pourraient avoir des idées sur la façon dont le gouvernement devrait mener son propre engagement. Le ministère a accueilli favorablement tout point de vue sur un tel engagement, soulignant qu'il est ouvert à l'idée d'entendre des experts sur ce sujet et de bénéficier de leur expérience sur la meilleure façon de concevoir un engagement significatif et solide. En particulier, certains experts ont donné des conseils sur la meilleure façon d'élaborer un engagement avec les peuples autochtones. Le ministère a accueilli favorablement ces conseils et a invité les experts intéressés à rencontrer le groupe qui dirige l'engagement avec les communautés autochtones au niveau du ministère, afin d'apprendre à propos de leur approche et de fournir une contribution.

Les prochaines étapes

La prochaine session du groupe consultatif d'experts aura lieu le vendredi 27 mai de 13h00 à 16h00 EDT. Les experts discuteront le lien avec l’application de la loi lors de cette session.

Détails de la page

Date de modification :