Document de travail complémentaire : Types de contenu à réglementer

Qu’est-ce qu’un document de travail complémentaire?

Le Groupe consultatif d’experts sur la sécurité en ligne lancé par la ministre du Patrimoine canadien le 30 mars 2022 se réunit chaque semaine pour discuter des principaux éléments du cadre législatif et réglementaire de la sécurité en ligne. À mesure que les discussions ont lieu, d’autres questions émergent.

Le présent document de travail complémentaire renferme des questions de suivi pour recueillir des renseignements plus détaillés afin d’éclairer la conception d’un cadre législatif et réglementaire efficace et proportionnel. Ni les conseils du groupe ni les opinions préliminaires exprimées dans les documents de travail ne constituent les opinions définitives du ministère du Patrimoine canadien ou du gouvernement du Canada.

Objectif

  1. Préciser la portée du contenu sous réglementation

Questions pour le suivi

  1. Dans le cadre d’une approche ex ante de la sécurité en ligne axée sur les systèmes et les risques, y a-t-il des limites (juridiques, pratiques ou autres) à la portée du contenu qui devrait être sous réglementation ?
    1. Si c’est le cas, quelles sont-elles ?
    2. Dans la négative, pourquoi ?
    3. Dans le même ordre d’idée, y a-t-il des catégories de contenus nocifs qui devraient être exclues de ce cadre ?
  2. La loi ou la réglementation devrait-elle définir le contenu sous réglementation ?
    1. Le cas échéant, la loi ou le règlement devrait-il définir le contenu réglementé en fonction de ses caractéristiques, de ses effets probables, de ses effets réels, ou d’un hybride de chacun ?
  3. Quel degré de spécificité est nécessaire dans un cadre ex ante, basé sur les systèmes et les risques :
    1. Pour les services réglementés, afin de déterminer le contenu dont ils sont responsables et de concevoir les outils et les processus nécessaires pour le gérer.
    2. Rattacher différentes obligations réglementaires à différents types ou degrés de contenu préjudiciable.
    3. Évaluer la validité et l’étendue de l’évaluation des risques ou du plan d’un service sous réglementation.
  4. Si le cadre législatif et réglementaire doit définir le contenu sous réglementation, la définition devrait-elle être tirée uniquement des définitions juridiques et de la jurisprudence existante, ou devrait-elle tenir compte d’autres éléments ?
    1. Quelles sont les limites (juridiques, pratiques ou autres) qui devraient s’appliquer à l’examen du contenu aux fins de réglementation ?

Résumé de la discussion du Groupe consultatif d’experts

Approche fondée sur les systèmes

De nombreux experts ont convenu que le cadre devrait adopter une approche fondée sur le risque selon laquelle les services réglementés sont tenus d’agir de façon responsable. Certains ont insisté sur le fait qu’il serait vraiment utile de préciser à quoi pourraient ressembler les évaluations des risques imposées aux plateformes. Ils ont souligné l’importance de fournir une norme ou un point de référence par rapport auquel le comportement des services sous réglementation peut être comparé, et qui serait utilisé pour déterminer si un service a respecté ses obligations.

Certains des experts qui préconisaient une approche fondée sur le risque l’ont fait dans une optique de sécurité des produits. Ils ont recommandé d’imposer des normes de rendement, au moyen de règlements et de lignes directrices, et d’évaluations de produits, au moyen de rapports de transparence et de vérifications, sur les services réglementés.

Les experts ont déclaré que cela permettrait un cadre adaptable qui peut suivre le rythme de l’évolution de la technologie et de l’apparition de nouveaux préjudices. Ils ont souligné qu’en vertu d’un tel cadre, il ne serait pas nécessaire de modifier la loi chaque fois que de nouveaux préjudices ou services surgissent. Les experts ont également affirmé qu’un modèle fondé sur le risque permettrait une certaine souplesse pour les définitions du contenu et les obligations imposées. Cette souplesse est nécessaire, ont-ils affirmé, car certains contenus comme les discours haineux sont trop opaques pour être évalués en temps réel, tandis que le contenu sur l’exploitation sexuelle des enfants et la diffusion en direct de la violence devraient être supprimés immédiatement ou l’on devrait même en interdire l’affichage.

Certains experts ont fait valoir que le cadre devrait obliger les services réglementés à fournir de l’information sur les algorithmes et d’autres systèmes, structures et outils qu’ils utilisent pour distribuer du contenu aux utilisateurs. Ils ont expliqué qu’il ne serait pas possible d’évaluer le profil de risque d’un service ni la pertinence de sa gestion des risques sans cette information, qui est un élément clé pour les tenir responsables.

Distinguer le contenu illégal du contenu légal, mais préjudiciable

De nombreux experts ont recommandé que le cadre fasse la distinction entre le contenu illégal et le contenu légal, tout en imposant des obligations distinctes aux services réglementés pour chaque type de contenu. Ils ont fait valoir que le contenu illégal devrait être retiré et ont souligné que des complications surviennent lorsqu’on examine la façon de traiter le contenu légal, mais préjudiciable. Ils ont déclaré que l’une des plus grandes erreurs commises par le Royaume-Uni dans sa Online Safety Bill a été d’essayer de s’attaquer au contenu légal, mais préjudiciable, au moyen d’obligations onéreuses. Certains ont suggéré d’adopter une approche plus souple pour un contenu légal, mais préjudiciable, une approche fondée sur l’autoréglementation ou l’établissement de normes.

D’autres experts ont expliqué qu’il serait difficile de faire la distinction entre le contenu illégal et le contenu légal, mais préjudiciable, et ils ont exprimé des préoccupations au sujet de l’externalisation de la fonction judiciaire de déterminer la légalité du contenu à des organismes privés (c'est-à-dire, les services en ligne). Ils ont fait valoir qu’il est utile d’établir différentes obligations fondées sur le risque en fonction d’un éventail de types de contenu. Les experts ont observé que différents types de contenu présentent des défis uniques; certains sont plus facilement reconnaissables pour leur préjudice (par exemple, pornographie juvénile), tandis que d’autres nécessitent des degrés variables d’analyse pour déterminer s’ils sont préjudiciables (par exemple, discours haineux; incitation à la violence; désinformation; diffamation). Compte tenu de ces réalités et de ces défis, il a été proposé que la catégorisation du contenu aux fins de la réglementation puisse être fondée sur d’autres facteurs, au-delà de la légalité.

Définition de contenu préjudiciable

De nombreux experts ont convenu qu’il serait difficile de définir la portée du contenu préjudiciable à réglementer. Certains ont fait valoir qu’il y a beaucoup de contenu qui n’est pas préjudiciable à première vue. Ils ont donné en exemple des images d’exploitation sexuelle des enfants. Ils ont expliqué qu’il y a des vidéos de mauvais traitements regroupées en plusieurs images différentes qui, à elles seules, ne représentent pas un préjudice apparent. Mais lorsqu’on met tout cela ensemble, le préjudice est clair et apparent. Certains experts ont souligné l’importance de s’appuyer sur les définitions juridiques existantes pour le contenu comme les discours haineux et de ne pas aller au-delà des lois que nous avons établies. D’autres experts ont souligné que les définitions actuelles dans la législation canadienne posent des défis pour certains types de contenu. Ils se sont dits préoccupés par la façon dont le terrorisme, l’extrémisme violent et la radicalisation violente sont définis et pris en compte dans le droit pénal canadien. En s’appuyant sur les définitions existantes, expliquent-ils, le cadre risquerait de conduire à une censure biaisée de certains types de contenu.

De nombreux experts ont déclaré qu’il serait important de trouver une façon de définir le contenu préjudiciable d’une manière qui tient compte des expériences vécues et de l’intersectionnalité. Ils ont expliqué qu’un certain nombre de méfaits en ligne sont illustrés par des enjeux comme la colonisation et la misogynie, et qu’un cadre réglementaire devrait reconnaître ces facteurs.

Éventail des préjudices

La plupart des experts, sinon tous, ont affirmé que l’éventail des préjudices devrait être élargi au-delà des cinq types de contenu énumérés dans les documents de travail. Ils ont souligné que les cinq types de contenu précédemment proposés étaient de portée trop étroite. Ils ont déclaré que le cadre devrait plutôt comprendre un large éventail de contenu illégal et légal, mais préjudiciable. Plusieurs experts ont indiqué qu’une courte liste de préjudices serait incompatible avec un régime réglementaire ex ante fondé sur l’obligation de diligence et fondé sur le risque. Ils ont mis en garde contre une approche « encyclopédique » qui viserait à réglementer adéquatement le risque et les dommages en utilisant une liste de contenu préjudiciable qui ne cesse de croître au fil du temps.

Certains experts ont expliqué qu’il faudrait inclure d’autres types de contenu nuisible si le cadre devait définir des objets précis de la réglementation. On a dit qu’il était important d’inclure toute une gamme de contenus préjudiciables, y compris la fraude, la cyberintimidation, le partage en masse d’incidents traumatisants, le contenu diffamatoire, la propagande, la fausse publicité et les communications politiques trompeuses, le contenu ou les algorithmes qui contribuent à une image corporelle irréaliste ou qui créent une pression pour se conformer; le contenu ou les algorithmes qui contribuent à l’isolement ou à la diminution de la concentration de la mémoire et de la capacité de focalisation.

De nombreux experts ont également expliqué qu’il serait important de préciser quels types de préjudices, le cas échéant, seraient exclus dans un cadre fondé sur le risque. Certains ont affirmé qu’il pourrait y avoir des types de contenu illégal que le cadre ne cherche pas à régler, comme les produits contrefaits ou la violation du droit d’auteur. La création récente d’un délit pour diffamation en ligne a été citée comme un exemple de la difficulté qu’il y aurait à étendre la portée du préjudice réglementé de façon aussi large.

Le préjudice comme élément subjectif

Certains experts ont donné des exemples de traumatismes qui laissent à la société peu de vocabulaire et de capacité. Ils ont expliqué que le monde en ligne peut exacerber ces problèmes, car les utilisateurs rencontrent du contenu qui, pour quelqu’un d’autre, peut ne pas être nocif, mais qui, pour eux, peut être un déclencheur. Les experts ont insisté sur le fait qu’une définition du contenu préjudiciable doit comprendre à quel point ce contenu est individualisé et contextuel. Les préjudices, ont expliqué ces experts, sont fondés sur la perspective. Par exemple, une personne racialisée ayant vécu une expérience avec les conséquences psychologiques du racisme et de ses répercussions systémiques aurait probablement un point de vue différent de ce qui constitue un contenu préjudiciable par rapport à un homme cis blanc. D’autres ont souligné que le mal est différent pour les enfants que pour les adultes. Beaucoup ont convenu qu’il serait important de tenir compte de la diversité des utilisateurs présents en ligne et de reconnaître que certains sont plus vulnérables que d’autres à des types précis de contenu.

Contenu sur l’exploitation sexuelle des enfants

Certains experts ont insisté sur le fait que le contenu particulièrement scandaleux comme la pornographie juvénile, ou le contenu sur l’exploitation sexuelle des enfants de façon plus générale pourrait nécessiter son propre cadre. Ils ont expliqué que les actions associées au retrait de la pornographie juvénile sont différentes des autres types de contenu; dans ce contexte, cela n’a tout simplement pas d’importance. En comparaison, d’autres types de contenu, comme les discours haineux, peuvent bénéficier de la protection de la Charte dans certains contextes. Les experts ont expliqué qu’une obligation de retrait avec un délai précis serait probablement la solution la plus logique pour la pornographie juvénile.

Mésinformation et désinformation

De nombreux experts se sont dits préoccupés par la mésinformation et la désinformation et ont souligné qu’elle n’était pas incluse dans les cinq types de contenu préjudiciables proposés. Ils ont expliqué qu’elle devrait être incluse, car elle a des effets néfastes graves sur les Canadiens et sur l’ensemble de la société. Ils ont insisté sur le fait que la capacité des Canadiens d’avoir des conversations sur des désaccords de principe fondamentaux a été gravement touchée et compliquée par le phénomène de la désinformation. Ils ont expliqué que cela érode les fondements de la démocratie, polarise les gens et réduit le dialogue social à des rencontres conflictuelles.

Portée limitée ou étendue du contenu sous réglementation

Le groupe d’experts n’était pas d’accord sur la question de savoir s’il fallait définir des types précis de contenu préjudiciable ou utiliser le concept de risque pour saisir une vaste gamme de contenu.

Certains ont fait valoir que la nécessité de préciser le contenu découlait du modèle de retrait proposé précédemment par le gouvernement. Ils ont déclaré que dans le cadre d’une approche fondée sur le risque, une telle précision n’était pas nécessaire. Ils ont fait valoir que le cadre ne devrait pas comporter des catégories ou des définitions détaillées du contenu préjudiciable. Ils ont plutôt insisté pour que l’accent soit mis sur les mesures fondées sur le risque et l’établissement de normes. Ils ont expliqué qu’il serait important que le cadre ne prédétermine pas ce que les services réglementés trouveront en termes de contenu nuisible sur leurs plateformes. Ils ont également souligné qu’il y a des préjudices qui ne peuvent être prévus. À ce titre, ils ont déclaré que le cadre devrait habiliter et encourager les services à cerner et à gérer eux-mêmes les préjudices de façon continue.

D’autres ont soutenu que le contenu préjudiciable devrait être défini et catégorisé. Ils ont expliqué qu’il serait extrêmement important de définir le préjudice. Ils ont déclaré que l’un des principaux avantages de la définition des catégories de contenu est qu’elle donne aux services en ligne une orientation sur le risque qu’ils sont tenus de chercher, de modérer et de gérer. Ils soutenaient qu’un cadre législatif et réglementaire ne pouvait pas simplement dire aux services en ligne de supprimer le contenu préjudiciable en général sans fournir une orientation et une définition. Ces experts ont expliqué qu’il y aurait énormément d’incertitude au sujet des obligations d’une plateforme, ainsi que du droit des victimes de demander réparation, sans clarté et précision dans la loi et le règlement. Ils ont insisté sur le fait que les catégories de contenu seraient inévitables et nécessaires, et devraient être un facteur dans la façon dont le groupe d’experts conceptualise les objets de la réglementation.

Détails de la page

Date de modification :