Résumé de l’atelier préliminaire

Les membres du Groupe consultatif d’experts sur la sécurité en ligne ont tenu leur atelier préliminaire le 8 avril de 13 h à 16 h, HAE. Les douze membres du groupe étaient présents pour cette séance d’introduction. Le groupe consultatif était composé de représentants du gouvernement des ministères du Patrimoine canadien, de la Justice, de l’Innovation, des Sciences et du Développement économique, de la Sécurité publique et du Bureau du Conseil privé. Des représentants de la Gendarmerie royale du Canada et du Service canadien du renseignement de sécurité étaient aussi présents. Les membres du groupe ont fait part de leurs points de vue sur les principaux défis à relever dans la conception d’un nouveau cadre législatif et réglementaire pour la sécurité en ligne.

Ce résumé donne un aperçu de la première séance. Conformément au mandat du groupe consultatif, ces séances sont régies par la règle de Chatham House. À ce titre, le présent résumé n’attribue pas les opinions exprimées à un membre du groupe ou à une organisation. Enfin, le résumé donne un aperçu des points de vue exprimés au cours de la séance; rend compte des domaines d’entente, de désaccord et de discussion; et organise le débat sous les catégories thématiques. Il ne doit pas être considéré comme une transcription textuelle de la discussion.

Trois objectifs ont été définis pour l’atelier d’introduction :

  1. Obtenir les observations des membres du groupe sur la proposition précédente et la réglementation du contenu en ligne en général.
  2. Déterminer d’autres thèmes que les membres du groupe veulent explorer en profondeur, en plus de ce qui est décrit dans l’itinéraire.
  3. Présenter et recueillir des commentaires sur le processus pour les séances à venir.

Le groupe consultatif a consacré la majeure partie de son temps à la réalisation du premier objectif. Par conséquent, le présent résumé rend compte des points de vue soulevés à son sujet et organise les points de discussion soulevés en fonction de thèmes précis. Les commentaires reçus pour les deuxième et troisième objectifs sont traités à la fin du résuméNote de bas de page 1.

Objectif 1 : Obtenir les observations des membres du groupe sur la proposition précédente et la réglementation du contenu en ligne en général.

Thème A : Portée du contenu réglementé

Types de contenu préjudiciable à inclure

De nombreux membres ont souligné qu’il sera difficile de se concentrer sur l’étendue du contenu à réglementer. Certains ont mis en garde contre le fait de placer un filet trop large sur le contenu réglementé, suggérant plutôt que le cadre se concentre sur les cinq types de contenu préjudiciable énumérés dans la proposition du gouvernement. Parmi les autres points de vue exprimés se trouvaient la considération de préjudices additionnels, comme le contenu qui nuit aux enfants en promouvant les problèmes d’image corporelle et la cyberintimidation, ainsi que la suggestion que la perception du préjudice par la victime devrait avoir de l’importance lorsqu’il s’agit de déterminer le contenu qui devrait être supprimé, non pas le préjudice lui-même.

De nombreux experts ont indiqué que le contenu préjudiciable devait être examiné selon un spectre. Ils ont fait valoir qu’il serait probablement nécessaire de réglementer différents types de contenus préjudiciables de manière unique. Par exemple, certains experts ont déclaré qu’un cadre législatif et réglementaire aurait avantage à traiter le contenu d’abus sexuels d’enfants différemment des discours haineux. Ils ont expliqué qu’il est notoirement difficile de cerner les discours haineux, car ils sont très contextuels et peuvent parfois être accompagnés de contre-discours qui peuvent être supprimés à tort. En revanche, les experts ont affirmé que la portée du contenu relatif à l’exploitation sexuelle des enfants est souvent moins contextuelle, car ce contenu est souvent plus facile à déterminer et mérite probablement une réponse plus stricte.

Pour illustrer leurs points de vue, certains experts ont fourni des exemples de la façon dont les plateformes ont déterminé à tort qu’un contenu était dangereux. Par exemple, il a été soulevé que les plateformes ont supprimé de manière disproportionnée l’ironie, la satire et les plaisanteries des communautés marginalisées parce qu’elles n’ont pas les outils pour interpréter le contenu d’autres cultures ou dans des langues différentes. D’autres experts ont souligné que les communautés musulmanes ont beaucoup souffert lorsqu’il s’agit de plateformes qui déterminent et suppriment à tort des contenus qui ne sont pas préjudiciables. Certains ont également fait valoir que si le contenu d’exploitation sexuelle d’enfants peut sembler [traduction] « plus facile à définir et à déterminer », de nombreuses entreprises de médias sociaux ne collaborent pas et ne réagissent pas lorsqu’on leur présente des cas clairs de matériel d’abus sexuels d’enfants.

Contenu légal et affreux par rapport à contenu illégal

Les experts ont partagé un certain nombre de points de vue sur la question de savoir s’il faut distinguer le [traduction] « contenu illégal » du contenu légal, mais néanmoins préjudiciable (c’est-à-dire le contenu [traduction] « affreux, mais légal »). Ces points de vue ne concordaient pas tous. Quelques experts ont suggéré l’introduction de deux régimes distincts – un régime de retrait pour le contenu illégal et une approche systémique pour le contenu légal, mais préjudiciable. D’autres experts ont souligné que faire une distinction entre le contenu illégal et contenu légal, mais préjudiciable posait problème pour deux raisons principales. Ils ont souligné qu’en premier lieu, il y a très peu de contenu clairement illégal; et deuxièmement, la détermination de la légalité de l’expression est extrêmement difficile et contextuelle. Il a été souligné que le « sujet » réglementé devrait être lié à « la personne » réglementée. Ils ont indiqué qu’une quantité considérable de contenus sur l’exploitation sexuelle des enfants est hébergée sur des serveurs du Web invisible, par opposition aux services de médias sociaux [traduction] « au sommet de la pile ». Ils ont fait observer que la mesure dans laquelle ces documents seraient visés par un cadre dépendrait de la façon dont ils définissent et saisissent les services réglementés.

De nombreux membres ont déclaré que le contenu de la [traduction] « zone grise » – un discours qui est légal, mais préjudiciable, ou [traduction] « affreux, mais légal » – pose des défis uniques. Ils ont expliqué que les contenus en ligne les plus préjudiciables entrent dans cette catégorie et ont souligné à quel point leurs effets sont souvent néfastes. Cependant, ils ont affirmé que c’est aussi le contenu le plus difficile à réglementer, car le droit à la liberté d’expression devient difficile à concilier lorsqu’il s’agit de traiter ce contenu. Certains experts ont affirmé qu’il faudrait trouver un équilibre entre la préservation des droits garantis par la Charte tout en s’attaquant au contenu légal, mais préjudiciable. Il a également été déclaré que le contenu légal, mais préjudiciable ne peut pas être légalement interdit, mais qu’il peut être réglementé par d’autres moyens que des mesures de suppression.

Certains membres ont indiqué qu’une discussion future sur ce que le Code criminel définit comme du « contenu illégal » et sur la façon dont la loi pourrait s’appliquer à la réglementation du contenu pourrait aider le groupe à établir la portée du contenu réglementé.

Thème B : Une approche systémique de la réglementation

Aller au-delà d’une approche de suppression

La plupart des experts étaient favorables à l’idée d’aller au-delà d’une approche de « suppression » de la réglementation du contenu (qui était au centre de l’approche présentée par le gouvernement lors de la consultation de juillet à septembre 2021), en se tournant vers l’incitation des plateformes à gérer les risques lors du développement de leurs produits. De nombreux membres ont indiqué que cette mesure permettrait de réduire les préjudices tout en respectant les droits fondamentaux. D’autres ont souligné qu’une approche systémique donnerait aux entreprises la liberté de travailler à la réduction des préjudices d’une manière qui convient à leurs modèles d’affaires uniques. Il a également été observé qu’une approche systémique pourrait initialement être contestée parce qu’elle est suffisamment claire et cohérente pour définir le type de contenu à réglementer – mais que l’ambiguïté créative pourrait être une bonne chose à plus long terme. Certains ont expliqué que cela pourrait conduire à des plateformes qui feraient plus pour se conformer parce qu’elles ne sont pas sûres de la portée réelle de leurs obligations. En revanche, d’autres ont mis en garde contre la création d’un cadre législatif imprécis et offrant une trop grande marge de manœuvre aux plateformes pour interpréter leurs obligations. Ces experts ont déclaré qu’une telle approche peut être favorable à l’industrie, mais ne serait pas dans l’intérêt du public.

Certains experts ont souligné le modèle de devoir de diligence du Royaume-Uni, introduit dans son Online Safety Bill, comme un modèle à imiter dans la mesure où il déplace la conversation réglementaire de la parole vers la conduite de la plateforme. Un certain nombre d’experts ont souligné que le cadre ne devrait pas porter sur la question de savoir si les services réglementés prennent au cas par cas les décisions « correctes » de modération du contenu. Ils ont affirmé qu’il devrait plutôt s’agir de surveillance et de conformité. Un certain nombre ont également indiqué que le gouvernement devrait adopter une attitude pragmatique en matière de sécurité en ligne, et qu’il devrait être clair que la suppression de tout contenu préjudiciable n’est pas possible et ne devrait pas être un objectif réglementaire.

Réglementation fondée sur le risque

Les experts ont souligné que le cadre canadien devrait traiter les plateformes comme d’autres entreprises qui offrent des produits aux consommateurs. Ils ont expliqué que ce changement permettrait au cadre de se concentrer sur les questions qui sont abordées dans d’autres secteurs axés sur les produits, comme la sécurité des produits, les méfaits pour les consommateurs et l’évaluation et l’atténuation des risques. Ils ont affirmé qu’au lieu de se concentrer sur les discours, le cadre se concentrerait sur le risque que prennent les plateformes lors du développement de produits et les inciterait à optimiser pour réduire les préjudices, plutôt que d’optimiser pour l’engagement, la viralité et la vitesse – leur modèle d’affaires actuel. Les experts ont souligné qu’une telle approche inciterait les plateformes à innover rapidement, car elles seraient tenues responsables si leurs produits causaient des préjudices et que le risque de dommages ne devait pas être atténué. Une question a également été soulevée afin de savoir si une telle approche reviendrait toujours à réglementer le discours. Certains ont mis en garde contre une action indirecte qui ne peut pas, ou ne doit pas, être faite directement.

Quelques experts se sont dits préoccupés par une approche systémique. Ils craignaient qu’une telle approche ne permette au gouvernement de déléguer la responsabilité des contenus préjudiciables au secteur privé. Ils craignaient également qu’elle ne garantisse pas, voire ne promeuve nécessairement, l’harmonisation d’une plateforme à l’autre. Enfin, ils craignaient qu’un tel modèle n’impose une obligation de moyens aux plateformes plutôt qu’une obligation de résultat. En revanche, d’autres experts ont soutenu qu’un régime systémique réussi imposerait à la fois une obligation de moyens et une obligation de résultat.

Thème C : Objectifs d’un cadre législatif et réglementaire

Les experts se sont entendus sur la nécessité d’un régime législatif et réglementaire pour lutter contre les contenus préjudiciables en ligne. Les experts ont fourni des renseignements sur la prévalence de ce contenu et ont partagé des comptes rendus de ses effets néfastes sur les Canadiens, en particulier sur les groupes vulnérables comme les enfants. Il a été estimé que les mécanismes d’application actuels et les ressources allouées à la surveillance de l’espace en ligne pour les contenus illégaux ne suffisaient pas, étant donné qu’une pléthore de tels contenus restent en ligne. Certains ont souligné l’importance de mettre en place des outils plus efficaces pour supprimer et traiter ce contenu. Certains experts ont également souligné que les médias sociaux ont permis à des contenus préjudiciables, qui ont toujours existé, de se propager à un rythme sans précédent et d’atteindre un nombre inégalé de Canadiens. Ils ont expliqué que l’environnement en ligne a modifié l’étendue du risque de tels contenus, car leur viralité et leur accessibilité les rendent beaucoup plus préjudiciables. En revanche, un autre expert a déclaré que les messages haineux étaient aussi vieux que l’humanité et a mis en garde contre l’exagération du rôle que les entreprises de médias sociaux jouent dans la diffusion de tels préjudices.

Outre la nécessité d’établir un cadre, la plupart des experts ont également souligné que le cadre adopté nécessiterait des objectifs clairs. Beaucoup ont dit que la proposition précédente du gouvernement n’était pas claire dans ses objectifs. Ces experts ont souligné qu’il serait nécessaire de 1) définir ce qu’un nouveau cadre chercherait à accomplir; 2) communiquer clairement son objectif afin que les Canadiens comprennent ce que le gouvernement tente de faire et comment il pourrait influer sur leur comportement en ligne; 3) mesurer son efficacité, de sorte que les gouvernements, la société civile, les universités, l’industrie et les Canadiens puissent tous voir comment ces mesures fonctionnent ou doivent être adaptées.

La plupart des experts ont reconnu que la fixation d’un objectif législatif est une tâche difficile. Beaucoup ont souligné que l’objectif du cadre doit inclure l’importance de préserver les droits et libertés fondamentaux des Canadiens. Ils ont souligné que tout objectif doit concilier la protection des Canadiens contre les préjudices avec la promotion de l’égalité, de la liberté d’expression et des droits à la vie privée. Beaucoup ont aussi soutenu qu’un cadre législatif pour réglementer le contenu préjudiciable en ligne ne permettra pas d’obtenir des résultats parfaits. Ils ont mis en garde contre l’aspiration à la perfection, affirmant plutôt qu’un objectif de réduction des préjudices, par opposition à leur élimination, devrait être recherché. Enfin, deux autres objectifs ont été soulevés au cours des discussions : 1) la réduction des souffrances causées par le contenu préjudiciable en ligne; et 2) la fourniture d’une voie de recours aux victimes touchées par du contenu préjudiciable en ligne.

Thème D : Liberté d’expression, égalité et droit à la vie privée

La plupart des experts ont souligné qu’un cadre efficace devait permettre d’équilibrer les droits garantis par la Charte. De nombreux membres ont mis en garde contre la priorité accordée à certains droits sur d’autres et souligné que tous les droits étaient fondamentalement limités.

En ce qui concerne la liberté d’expression, certains experts ont expliqué que tous les discours ne sont pas dans la même mesure. Ils ont souligné que les droits des victimes et de ceux qui diffusent du contenu préjudiciable étaient importants et que lorsque ces droits étaient contradictoires, il existait des limites justifiables. Certains experts ont souligné que la liberté d'expression et les autres droits de la Charte doivent se voir accorder le même poids. Quelques experts ont expliqué que la limitation du droit individuel d’un utilisateur de partager du contenu préjudiciable en ligne peut être justifiée si elle est faite dans le but de préserver le droit collectif des autres utilisateurs à un espace en ligne sécurisé.

De nombreux experts ont souligné qu’un cadre efficace devait également tenir compte des droits à l’égalité et protéger les communautés marginalisées. Certains ont souligné que les communautés marginalisées sont souvent réduites au silence et menacées par du contenu préjudiciable en ligne. Beaucoup ont aussi souligné que les communautés marginalisées ne se sentent souvent pas à l’aise de signaler un contenu préjudiciable auquel elles sont confrontées en ligne ou de porter plainte à son égard.

Thème E : Comment aider au mieux les victimes et soutenir leurs besoins

De nombreux experts ont parlé de l’importance d’arriver à un cadre législatif qui s’attaque au contenu préjudiciable en ligne du point de vue de la victime. Ils ont donné des exemples de la façon dont les groupes vulnérables au Canada, comme les enfants, sont régulièrement victimes et ciblés en ligne, et de la nécessité pour le gouvernement d’agir pour assurer la sécurité en ligne de ces groupes. Ils ont expliqué que les lois criminelles en vigueur ne protègent pas adéquatement les Canadiens contre le contenu préjudiciable en ligne, et que les personnes et les organisations haineuses ont trouvé un endroit confortable sur les médias sociaux pour proférer leurs menaces.

De nombreux experts ont également souligné qu’il ne fallait pas confier à la victime la responsabilité de déposer une plainte ou d’intenter une procédure de plainte. Ils ont souligné que le fait d’imposer aux victimes la responsabilité de trouver à des recours ou de parvenir à un résultat raisonnable en matière de modération du contenu approfondissait ou exacerbe souvent le processus de victimisation. Des garanties procédurales telles que des mécanismes de recours devraient être soigneusement réfléchies afin de garantir une protection adéquate des victimes.

Enfin, les experts ont souligné l’importance d’entendre les victimes avant la création d’une législation, afin que leurs voix soient prises en compte dans un cadre visant à les protéger. Quelques experts ont souligné que les enfants n’ont pas de représentants, et que si nous ne leur donnons pas de voix proactive, ils ne seront pas entendus dans la conversation sur la régulation du contenu qui leur est si préjudiciable.

Thème F : La boîte à outils de réglementation

Certains experts ont indiqué qu’une approche systémique devrait être complétée par d’autres outils réglementaires. Ils ont indiqué que même avec un cadre systémique efficace, il faudrait encore un mécanisme de recours pour que les victimes de contenus préjudiciables puissent accéder en ligne dans des cas urgents.

Quelques experts ont souligné que le cadre devrait porter autant sur la prévention, l’engagement démocratique et le débat que sur l’évaluation des risques. Ils ont souligné la nécessité d’un soutien programmatique pour les préjudices subis par les enfants, ainsi que d’un soutien à la démocratie et à l’engagement civique.

Les experts ont également discuté de la conformité des plateformes. Beaucoup ont déclaré que l’application de la loi ne peut être laissée aux bonnes grâces des acteurs de l’industrie. Ils ont souligné qu’une approche systémique qui donne aux plateformes la souplesse nécessaire pour déterminer comment elles s’acquitteront de leurs obligations, les sanctions et la surveillance seraient d’une importance cruciale. Beaucoup ont expliqué que les obligations ne sont utiles que dans la mesure où elles sont assorties de sanctions en cas de non-respect. Quelques experts ont déclaré qu’il serait nécessaire d’aborder la question de la responsabilité intermédiaire lors des futurs ateliers.

Les membres ont également discuté des paramètres de surveillance. Quelques experts ont dit que les plateformes hésitaient à agir sur les types de contenus préjudiciables les plus flagrants, comme la pornographie infantile. En revanche, quelques autres experts ont déclaré que si les parties les plus sombres d’Internet ne se conformaient peut-être pas, les plateformes grand public ont un engagement politique à modérer les contenus préjudiciables et sont généralement sensibles aux pressions sociales et politiques. Quelques experts ont également souligné l’importance de doter un organisme de réglementation de pouvoirs d’audit pour s’assurer qu’il a le pouvoir de tenir les plateformes responsables de leurs évaluations des risques et d’assurer une transparence maximale.

Thème G : Leçons tirées d’autres administrations

De nombreux experts ont souligné que le Canada a un avantage de second ordre dans la réglementation du contenu préjudiciable en ligne. Ils ont indiqué que les données empiriques fournies par d’autres administrations qui ont déjà légiféré dans cet espace constituent un avantage important parce qu’il y a beaucoup de leçons à tirer de ce qui s’est bien passé, et ce qui s’est mal passé, dans des cadres antérieurs.

Ils ont expliqué qu’il existe des éléments d’autres régimes législatifs et réglementaires qui peuvent et doivent être intégrés et modifiés dans un contexte canadien. Par exemple, ils ont affirmé qu’un consensus se dégageait à l’échelle mondiale sur le fait qu’une approche systémique a connu le plus grand succès à l’échelle internationale.

Ils ont également énuméré les éléments qu’ils recommanderaient de ne pas reproduire. Par exemple, selon ces experts, des recherches ont démontré que les régimes fondés sur le contenu sont problématiques pour plusieurs raisons, l’une des plus importantes étant qu’ils ont un effet dissuasif sur le discours. Ils ont également fait ressortir que certaines lois d’autres administrations ont fixé des objectifs vastes, comme l’élimination de l’extrémisme, qui ne peut être mesuré à l’aide des données ethnographiques disponibles. Une telle approche soulève de sérieuses inquiétudes quant à la façon d’évaluer le succès du régime de réglementation.

Enfin, quelques experts ont souligné qu’une leçon solide tirée d’autres administrations était que la consultation et l’audition de groupes minoritaires et d’organisations de la société civile sont un élément nécessaire de tout processus réglementaire réussi.

Objectif 2 : Déterminer d’autres thèmes que les membres du groupe veulent explorer en profondeur, en plus de ce qui est décrit dans l’itinéraire.

Quelques experts ont déterminé d’autres thèmes qu’ils souhaiteraient aborder dans le cadre d’ateliers futurs. Le premier était une discussion sur la meilleure façon de communiquer un nouveau cadre législatif et réglementaire aux Canadiens. Ils ont souligné que la communication d’un cadre de réglementation des contenus préjudiciables serait importante, car un tel cadre pourrait éroder ou renforcer la confiance du public dans le gouvernement et d’autres institutions démocratiques, ou y contribuer. Le deuxième thème abordé a été l’exploration d’autres outils pour lutter contre le contenu préjudiciable en ligne, en dehors de la législation, comme la fourniture des ressources et des fonds plus importants pour le soutien aux victimes.

Deux autres préoccupations ont été soulevées concernant l’itinéraire. Premièrement, quelques experts ont souligné que toute législation introduite devait être claire et intelligible. Ils ont dit que de nombreux Canadiens se serviraient de cette loi et qu’il serait crucial qu’ils puissent l’interpréter et le comprendre. Ils ont également souligné l’importance de faire participer les Canadiens à l’élaboration des conseils du groupe consultatif et à la présentation d’une loi par le gouvernement. Ils ont expliqué que les mots avaient de l’importance et cité des exemples de Canadiens croyant qu’ils avaient des droits au premier amendement, une déclaration des droits ou des droits illimités de liberté d’expression. Ils ont déclaré que le concept du devoir de diligence a un pouvoir communicatif intuitif et qu’il peut et doit être communiqué correctement pour aider les Canadiens à comprendre avec précision ce qui est proposé. Deuxièmement, quelques experts ont cerné des éléments qu’ils souhaitent approfondir, comme la loi et ses limites. Ils ont expliqué qu’ils souhaitaient avoir une meilleure compréhension de la façon dont les lois établies jouent dans les questions que le groupe consultatif est chargé d’étudier.

Objectif 3 : Présenter et recueillir des commentaires sur le processus pour les séances à venir.

De nombreux experts se sont engagés à échanger des lectures et d’autres ressources sur les sujets abordés au cours de la discussion, ainsi que sur d’autres sujets d’intérêt. Le groupe d’experts a également commencé à discuter des intervenants qu’ils souhaiteraient rencontrer dans le cadre de son processus de consultation externe. Quelques experts ont déclaré qu’il serait utile de rencontrer des membres de la communauté qui seraient disposés à parler de leur expérience en ligne de contenus préjudiciables, afin que le groupe consultatif d’experts puisse savoir comment ce contenu touche les Canadiens. Ils ont souligné que le groupe serait certainement en mesure d’apprendre beaucoup de l’expérience vécue des groupes de victimes directement.

Prochaines étapes

Le prochain atelier du groupe consultatif d’experts aura lieu le jeudi 14 avril de 13 h à 16 h, HAE. Durant cette séance, les experts discuteront de la feuille de travail sur les entités assujetties à la réglementation.

Détails de la page

Date de modification :