Deuxième séance: types de contenu à réglementer
Qu'est-ce qu'une feuille de travail?
Chaque session du groupe consultatif sera appuyée par une feuille de travail, comme celle-ci, mise à la disposition du groupe avant chaque session. L'objectif de ces feuilles de travail est de soutenir la discussion et d'organiser les commentaires et les suggestions reçus. Ces feuilles de travail seront rendues publiques après chaque session.
Chaque feuille de travail comportera une série de questions auxquelles les membres du groupe seront invités à répondre par écrit. Un résumé non attribué de ces soumissions sera publié chaque semaine pour aider à mener les travaux de manière transparente.
L'approche proposée dans chaque feuille de travail représente les idées préliminaires du gouvernement sur un certain sujet, sur la base des commentaires reçus lors de la consultation de juillet à septembre 2021. Il s'agit d'un outil destiné à faciliter la discussion. Les idées et le langage partagés sont censés représenter un point de départ, pour obtenir des réactions et des rétroactions. Les conseils reçus lors de ces consultations aideront le gouvernement à concevoir un cadre législatif et réglementaire efficace et équilibré pour lutter contre les contenus préjudiciables en ligne. Ni l’avis du groupe ni les opinions préliminaires exprimées dans les feuilles de travail constituent les opinions finales du ministère du Patrimoine canadien ou du gouvernement du Canada.
Sujet de discussion
Quelle devrait être la portée du contenu réglementé en vertu du cadre législatif et réglementaire et comment définir le contenu réglementé?
Objectifs
- Déterminer le contenu à réglementer en vertu d’un cadre législatif et réglementaire. Les paragraphes ci-dessous présentent les grandes lignes des catégories de contenu préjudiciable qui devraient d’abord être intégrées dans la portée. Ces catégories représentent les formes les plus odieuses de contenu en ligne. Cependant, une multitude d’autres contenus préjudiciables sont présents sur les plateformes en ligne. Il sera important d’établir ce qui peut, et devrait, être réglementé comme première étape pour la réglementation du contenu en ligne au Canada.
- Évaluer si les obligations législatives et réglementaires du cadre devraient différer en fonction de la catégorie de contenus réglementés. Certains contenus sont plus préjudiciables que d’autres. Les entités réglementées pourraient devoir s’attaquer au spectre de contenus préjudiciables de façon différente en fonction du niveau de risque que présente chaque catégorie de contenu.
- Déterminer la meilleure façon d’établir la portée des contenus réglementés et de les définir. Contrairement à l’établissement d’une catégorie de contenu « illégal » et une autre de contenu préjudiciable, tous les contenus réglementés devraient faire partie d’une catégorie, soit celle des contenus préjudiciables. Les mesures législatives pourraient établir des définitions de base inspirées du Code criminel, de la législation canadienne et de la jurisprudence pertinente. Elles pourraient fournir une précision assez grande pour que les plateformes soient en mesure de les interpréter avec exactitude et d’établir leurs propres normes de définition plus détaillées, conformément aux exigences plus générales énoncées dans la législation.
- Déterminer le niveau adéquat de souplesse à intégrer dans la loi et la réglementation. À mesure que le cadre réglementaire prend de la maturité et que les normes sont élaborées, la loi pourrait comprendre des mécanismes visant à permettre que les définitions actuelles soient mises à jour et que des définitions de contenu supplémentaires soient intégrées avec le temps.
Points de départ
- L’intention de réglementer les contenus que les Canadiens reconnaissent en général comme préjudiciables, tout en respectant la liberté d’expression. En ce qui concerne la portée des contenus à réglementer, le but est de faire en sorte que le cadre législatif saisisse les contenus qui, en toute reconnaissance et de façon intuitive, ont probablement des effets préjudiciables et que qui est considéré comme de « faible valeur ». La jurisprudence canadienne soutient que le niveau de protection constitutionnelle accordée à l’expression peut varier en fonction de la nature de l’expression en question, parmi d’autres facteurs. Dans ce contexte, le contenu de « faible valeur » signifierait qu’il arrive très peu à promouvoir les valeurs sous-jacentes à la liberté d’expression, comme la pornographie juvénile, les discours haineux et l’incitation à la violence. Le cadre ciblerait également le contenu qui présente un risque imminent de préjudice pour les Canadiens. L’intention est que les avantages de la suppression de tels contenus l’emportent sur le tort causé par la restriction de leur expression.
- Le régime réglementaire devrait d’abord se concentrer sur les formes les plus odieuses de contenus préjudiciables en ligne pour ensuite étendre sa portée au fil du temps. Le cadre permettrait de réglementer cinq catégories de contenus préjudiciables qui sont le contenu d’exploitation sexuelle des enfants en ligne, le partage non consensuel d’images intimes, le contenu terroriste, le contenu incitant à la violence et le discours haineux. Enraciné dans le droit criminel canadien, ce genre de contenus peut plus facilement être cerné et intégré dans un nouveau cadre législatif et réglementaire.
- Le Code criminel devrait être le point de départ, mais la réglementation du contenu comporte des différences fondamentales par rapport à la poursuite d’infractions criminelles. La plupart des infractions au Code criminel du Canada contiennent deux éléments : mens rea et actus reus. Mens rea renvoie à l’intention de l’accusé, alors qu’actus reus renvoie à sa conduite. Pour qu’une personne ait commis une infraction criminelle, elle doit avoir une intention coupable (mens rea) et, doit généralement avoir commis un acte manifeste en vue de perpétrer un crime (actus reus). Cette dernière exigence pourrait s’appliquer dans un contexte de réglementation. Par exemple, certaines communications préjudiciables de propagande haineuse constituent un crime. Les modifications proposées à la Loi canadienne sur les droits de la personne interdiraient toute communication, quelles que soient les intentions de l'auteur de la communication. Dans un contexte organisationnel, il est possible de s’attaquer à la communication ou le partage d’un contenu. Cependant, cette première exigence de mens rea ne se traduit pas facilement par un cadre de réglementation. Par exemple, l'infraction consistant à promouvoir volontairement la haine contre un groupe identifiable requiert la mens rea de la volonté ou de l'intentionnalité. Il sera impossible pour un service en ligne réglementé de connaître l’intention d’une personne qui affiche un contenu en particulier. Ni les définitions législatives ni les lignes directrices s’adressant à une collectivité en particulier des plateformes ne peuvent évaluer l’intention à grande échelle. Et elles ne devraient pas avoir à le faire. Le cadre proposé porterait plutôt sur la surveillance et la gestion des contenus préjudiciables, et non sur la raison pour laquelle ce contenu a été affiché. Alors que certains ont allégué que le « contenu illégal » devait constituer la cible pour confronter le contenu préjudiciable en ligne, une approche nuancée, voire unique, doit être employée pour définir le contenu préjudiciable aux fins de la réglementation.
Aperçu de l’approche proposée
- L’avantage informationnel que les plateformes en ligne détiennent sur la nature et l'étendue du contenu préjudiciable en ligne est un fait essentiel qui éclaire la façon dont la législation canadienne définirait le contenu préjudiciable en ligne. Les équipes de politiques et de la réglementation au sein de la fonction publique fédérale et le bureau administratif éventuel du commissaire à la sûreté numérique font face à un désavantage fondamental en matière d’information, lorsqu’il s’agit de déterminer comment les contenus préjudiciables se manifestent sur les plateformes en ligne. Contrairement aux plateformes proprement dites, le gouvernement n’a pas accès à l’information pertinente et aux rapports des plateformes qui lui permettraient de comprendre comment ce contenu se manifeste en ligne - ni les autres parties intéressées dans le monde universitaire ou la société civile. Cela a un impact direct sur la capacité à définir les catégories pertinentes de contenu préjudiciable dans la législation.
- Compte tenu de cet enjeu, la loi devrait porter principalement sur un ensemble de normes de base qui tiendrait compte du sens intuitif des Canadiens quant au contenu préjudiciable et offrirait une orientation aux plateformes quant à la façon de surveiller et de modérer ce contenu. Une évaluation continue de l’environnement, la présentation de rapports réguliers par les plateformes ainsi que des vérifications et des pouvoirs d’inspection seront mis au point afin d’aider le gouvernement à mieux comprendre comment ces préjudices se manifestent et sont surveillés et modérés. Dans la mesure où de nouveaux renseignements révéleraient des écarts ou des éléments inadéquats, il sera probablement nécessaire d'apporter des modifications réglementaires et/ou législatives ou d'élaborer de nouvelles réglementations, le cas échéant, afin de revoir ces définitions ou même d’établir de nouvelles catégories de contenus préjudiciables.
- Les mesures législatives comprendraient d’abord cinq définitions globales des types de contenu préjudiciable qui figurent ci-haut. Les définitions globales proviendraient du Code criminel, de la jurisprudence et d’autres mesures législatives canadiennes. Adaptées au contexte réglementaire, la plupart des définitions, contrairement au Code criminel, portent sur le contenu et ses effets probables, plutôt que sur l’état mental de l’auteur du contenu.
- Contenu lié à l’exploitation sexuelle des enfants : De nombreuses infractions traitent de l’exploitation sexuelle des enfants dans le Code criminel. La définition réglementaire rédigée de façon plus générale saisirait un grand nombre de ces infractions. Note de bas de page 1 En termes généraux, elle comprendrait a) une représentation visuelle montrant un enfant engagé ou présenté comme engagé dans une activité sexuelle explicite, et b) d’autres contenus, s’il est raisonnable de soupçonner que le contenu est lié à l’exploitation sexuelle des enfants et qu’il est probable qu’il perpétuera le préjudice contre les enfants. Note de bas de page 2
- Contenu terroriste et contenu incitant à la violence. Le Code criminel rend criminellement responsable toute personne conseillant la perpétration d’un crime quelconque prévu dans le Code. Le but des définitions de contenu terroriste et contenu incitant à la violence est de présenter approximativement la notion de conseil dans le droit criminel. Pour être défini en tant que conseil, le droit criminel nécessite deux composantes : 1) l’encouragement actif de la perpétration d’un crime et 2) le fait qu’une personne avait l’intention que le crime soit perpétré ou était au courant d’un risque significatif et injustifié qu’un crime soit commis (en d'autres termes, l'imprudence). Les définitions de contenu terroriste et de contenu incitant à la violence ont modifié ces exigences dans un contexte de réglementation. Elles comprennent 1) l’encouragement actif et 2) la probabilité qu’un préjudice soit encouragé.
- Les contenus qui encouragent activement la violence ou qui constituent des menaces de violence comprendraient le contenu dans lequel un acte de violence physique ou des dommages considérables à des biens sont encouragés activement ou constituent une menace si la communication de ce contenu entraînait vraisemblablement un acte de violence physique ou des dommages considérables à des biens.
- Le contenu terroriste tiendrait compte des contenus qui encouragent activement la perpétration d’un acte ou une omission ou qui constituent une menace en ce sens qui entraîneraient vraisemblablement n’importe lequel des préjudices suivants s’il est raisonnable de soupçonner que le contenu est communiqué à des fins politiques, religieuses ou idéologiques et dans le but d’intimider le public ou une partie du public quant à sa sécurité ou d’obliger une personne, un gouvernement ou une organisation nationale ou internationale à commettre ou à s’abstenir de commettre un acte quelconque :
- causer la mort ou des blessures corporelles graves à une personne;
- mettre la vie d’une personne en danger;
- présenter un risque grave pour la santé ou la sécurité du public ou d’une partie du public;
- causer des dommages considérables à des biens qui entraîneront vraisemblablement des préjudices qui sont énumérés aux paragraphes (a) à (c);
- causer une interférence grave avec un service essentiel, une installation ou un système, ou une perturbation grave connexe, qu’il soit public ou privé, autre qu’à la suite de moyens de pression, de protestations, de dissidence ou d’arrêt de travail qui ne sont pas susceptibles d’entraîner des préjudices qui figurent aux paragraphes (a) à (c).
- Le discours haineux serait défini de la même manière que ce qui serait prévu en vertu du nouvel article 13 proposé de la Loi canadienne sur les droits de la personne (LCDP) modifiée (similaire à l’ancien projet de loi C-36). Premièrement, la définition concernerait le discours haineux sur le plan du contenu haineux, à savoir tout contenu exprimant la haine ou la diffamation contre des personnes, s’il est fondé sur un motif de distinction illicite. Note de bas de page 3 Deuxièmement, un discours serait jugé haineux dans son contenu seulement s’il est formulé dans un contexte qui, vraisemblablement, sème la haine. Cette approche tient compte de l’orientation de la Cour suprême du Canada.
- Le partage non consensuel d’images intimes ferait appel à l’infraction prévue dans le Code criminel de la publication d’une image intime sans consentement. Contrairement aux autres définitions, celle-ci ne comprendrait aucune disposition sur les effets probables. Elle porterait plutôt sur le contenu uniquement. Peu importe l’effet du contenu, si la personne ne consent pas au partage de l’image intime ou s’il est impossible de confirmer le consentement de la personne, le contenu est jugé préjudiciable. Le fait que la personne puisse avoir été consentante avant la création ou le partage du contenu n’a pas d’importance, car le consentement sera évalué au moment du signalement. Dès le signalement d’une image intime, la plateforme serait tenue de déterminer si la personne qui figure sur l’image a bel et bien donné son consentement. Si la plateforme ne parvenait pas à confirmer cette détermination, l’image serait jugée comme préjudiciable. La définition ressemblerait à celle-ci : l’enregistrement visuel d’une personne nue qui expose ses organes génitaux ou la zone de l’anus ou ses seins ou qui s’adonne à une activité sexuelle explicite, s’il est raisonnable de soupçonner (a) qu’au moment de l’enregistrement, la personne montrée dans l’enregistrement s’attendait de façon raisonnable à ce que le tout reste privé, et aussi lorsque l’enregistrement a été divulgué; (b) la personne montrée dans l’enregistrement n’a pas consenti à la divulgation de l’enregistrement.
- Le régime établirait des normes de base sur la façon de définir le contenu préjudiciable et, du même coup, il serait surveillé et modéré par des services réglementés. Cela mettrait en place des mesures de transparence, de surveillance et d’imputabilité pour veiller à ce que les plateformes aient en place les processus requis pour déterminer si le contenu est préjudiciable. Cela offrirait aux plateformes la souplesse et l’indulgence nécessaires dans leur propre processus décisionnel. Tant que les plateformes sont en mesure de prouver que des systèmes et des processus sont en place pour cerner, surveiller et modérer le contenu correspondant aux définitions qui figurent ci-haut, elles ne seront pas pénalisées si elles arrivent à une conclusion incorrecte à savoir si le contenu correspond aux définitions de contenu préjudiciable prévues dans la loi.
- Au-delà des catégories de contenu préjudiciable en tant que telles, il existe différentes modalités de transmission de contenus préjudiciables en ligne, qui peuvent appeler différents types de réponses réglementaires. Par exemple, la diffusion en direct de contenu préjudiciable nécessiterait vraisemblablement un retrait plus rapide que le contenu asynchrone. Le contenu volatile qui aurait probablement des conséquences préjudiciables imminentes et en cascade sur la société nécessiterait une intervention plus forte que dans le cas d’un contenu préjudiciable qui aurait des effets moins immédiats. Les catégories d’obligations pourraient être appliquées différemment par rapport à ces modalités. Par exemple, il serait possible d’imposer un ensemble d’obligations réglementaires réservées, disons pour un contenu terroriste et/ou un contenu d’exploitation sexuelle d’un enfant diffusé en direct.
Questions à l’appui aux fins de discussion
- Déterminer le contenu à réglementer en vertu d’un cadre législatif et réglementaire.
- Les catégories de contenu qui figurent ci-haut couvrent-elles l’ensemble du contenu préjudiciable qui devrait être réglementé? D’autres contenus devraient-ils faire l’objet d’un mécanisme réglementaire de cet ordre? Si tel est le cas, avons-nous des données probantes qui permettent de confirmer que ce type supplémentaire de contenu est préjudiciable pour les utilisateurs canadiens de plateformes en ligne?
- Y a-t-il des contenus qui ne sont pas préjudiciables, mais qui devraient tout de même figurer dans le régime réglementaire des préjudices en ligne? Par exemple, des contenus devraient-ils être protégés contre la modération sur la plateforme (c. à d. contenu journalistique ou contenu d’importance démocratique)?
- Devrait-on établir des catégories supplémentaires ou distinctes de réglementation pour le contenu diffusé en direct ou volatile lié aux genres de préjudices déjà déterminés?
- Déterminer si les réponses législatives et réglementaires devraient différer en fonction de la catégorie de contenus réglementés.
- Compte tenu du contenu proposé aux fins de réglementation, y a-t-il certains contenus qui sont davantage préjudiciables pour les utilisateurs canadiens? Ce contenu devrait-il être traité de façon plus rigoureuse que d’autres formes de contenu réglementé?
- Comment déterminer la mesure dans laquelle le contenu est préjudiciable? Quels facteurs doit-on prendre en considération?
- Si vous cerniez d’autres types de contenu à réglementer, de quelle partie du spectre des préjudices relèveraient-ils? Comment pensez-vous qu’ils devraient être traités?
- Déterminer la meilleure façon d’établir la portée des contenus réglementés et de les définir.
- Considérant que le simple fait de définir un contenu préjudiciable comme "illégal" au regard du droit criminel est une approche problématique à adopter dans un contexte réglementaire au vu des considérations mentionnées plus haut quels sont les seuils et les normes qui, selon vous, devraient être mis en œuvre afin d’établir la portée du contenu préjudiciable au Canada? Le gouvernement devrait-il produire des orientations pour aider à interpréter ces normes et seuils dans le contexte réglementaire ?
- Estimez-vous toujours qu’il soit nécessaire de viser à différencier le contenu « illégal » et le contenu préjudiciable dans un régime réglementaire? Dans l’affirmative, que proposeriez-vous pour délimiter les deux catégories?
- Déterminer le niveau adéquat de souplesse à intégrer dans la loi.
- Estimez-vous que les définitions de contenu préjudiciable nécessiteront des mises à jour régulières à mesure que le précédent lié à la modération du contenu s’établit de lui-même? Croyez-vous que les catégories de contenu qui exigent une analyse contextuelle et qui sont davantage subjectives, comme le discours haineux, peuvent nécessiter une mise au point de leur définition au fil du temps?
- Avez-vous l’impression que le gouvernement devra réglementer de nouveaux types de contenu préjudiciables à l’avenir? Si tel est le cas, pouvez-vous prévoir des types de contenu qui ne sont pas nécessairement préjudiciables à ce stade-ci, mais qui pourraient nécessiter une réglementation plus tard?
Détails de la page
- Date de modification :