Guide de discussion

Sur cette page

Liste des acronymes et abréviations

CNCEE
Centre national contre l’exploitation d’enfants
IBA
Information de base sur l’abonné
Loi sur la déclaration obligatoire
Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet
le Comité
Comité consultatif
le Conseil de recours
Conseil de recours en matière numérique du Canada
SCRS
Service canadien du renseignement de sécurité
le commissaire
le commissaire à la sécurité numérique du Canada

Objectif

Le gouvernement croit en la nécessité de soutenir un environnement en ligne sûr, inclusif et ouvert. En partenariat avec les ministres de la Justice et de la Sécurité publique, le ministre du Patrimoine canadien publie un document de travail technique détaillé qui décrit l’approche proposée par le gouvernement pour réglementer les médias sociaux et lutter contre les contenus préjudiciables en ligne.

Cette approche est basée sur le travail approfondi que le gouvernement a mené au cours de la dernière année. Elle reflète les consultations menées auprès des communautés en quête d’équité, les organisations autochtones, les organisations non gouvernementales, et notamment celles qui sont victimes de discours haineux. Elle s’inspire des idées partagées par la société civile et les groupes de défense des droits dans tout le pays. Et elle tient compte des perspectives et des approches élaborées et partagées par les partenaires du Canada dans le monde entier.

Le gouvernement a l’intention de présenter un projet de loi à l’automne 2021. Cette consultation est une étape importante pour donner aux Canadiens et aux parties prenantes l’occasion de mieux comprendre l’approche proposée et pour permettre au gouvernement d’envisager d’autres perspectives.

Ce projet de loi fera partie d’une stratégie plus large pour lutter contre les discours haineux et les autres préjudices. Dans ce cadre, le 23 juin 2021, le gouvernement a déposé un projet de loi visant à offrir des recours juridiques aux victimes de discours et de crimes haineux. Le projet de loi C-36 propose ce qui suit :

Le projet de loi C-36 se veut complémentaire à l’approche proposée ici pour réglementer les médias sociaux.

Contexte

Les plateformes de médias sociaux et les autres services en ligne aident à relier les familles, les amis et les personnes ayant des intérêts communs au Canada et dans le monde entier. Ils sont des éléments clés de l’infrastructure économique qui permettent aux entreprises canadiennes d’atteindre les marchés nationaux et étrangers, ce qui est particulièrement crucial pour les petites et moyennes entreprises. Ils offrent un espace aux Canadiens pour participer à leur démocratie, et offrent aux activistes et organisations de la société civile des espaces pour s’organiser et partager leurs messages. Ils permettent aussi d’amplifier les voix des communautés sous-représentées et en quête d’équité, y compris les peuples autochtones.

Mais de plus en plus de preuves montrent que ces avantages s’accompagnent également de préjudices importants.

Des individus et des groupes utilisent les plateformes de médias sociaux pour diffuser des messages haineux. Les Autochtones et les groupes en quête d’équité, tels que les personnes racisées, les minorités religieuses, les personnes LGBTQ2 et les femmes sont disproportionnellement touchées par les propos haineux, le harcèlement et la rhétorique violente en ligne. Les discours haineux nuisent aux personnes visées, à leur famille, à leur communauté et à la société dans son ensemble. Ils faussent également le libre échange d’idées en discréditant ou en réduisant au silence les voix ciblées.

Les plateformes des médias sociaux peuvent relayer de la propagande haineuse ou terroriste, de même que des conseils en vue d’actes violents bien réels, servir à recruter de nouveaux adhérents aux groupes extrémistes et menacer la sécurité nationale, la primauté du droit et les institutions démocratiques. Dans le pire des cas, la haine et l’extrémisme en ligne peuvent inciter à commettre des actes concrets de violence au Canada comme partout dans le monde, comme on l’a observé le 29 janvier 2017 au Centre culturel islamique de Québec, et le 15 mars 2019 à Christchurch, en Nouvelle-Zélande.

Les plateformes de médias sociaux sont également utilisées pour exploiter sexuellement des enfants. Les femmes et les filles, principalement, sont victimes du partage d’images intimes sans le consentement de la personne représentée. Ces crimes peuvent infliger des traumatismes graves et durables aux survivantes et survivants, ce qui est d’autant plus grave lorsque ces images prolifèrent sur l’Internet et dans les médias sociaux.

Les plateformes de médias sociaux ont un impact important sur l’expression, la participation démocratique, la sécurité nationale et la sécurité publique. Ces plateformes disposent des outils permettant de modérer les contenus préjudiciables. Les principales plateformes de médias sociaux ont volontairement mis en place des systèmes de modération du contenu qui signalent et évaluent le contenu par rapport à leurs règlements internes. Mais certaines plateformes ne prennent des mesures fermes que de manière ponctuelle. Ces réponses des entreprises de médias sociaux ont tendance à être réactives par nature et peuvent ne pas tenir compte de l’intérêt public au sens large. De plus, les plateformes de médias sociaux n’ont pas l’obligation de préserver les éléments de preuve d’un contenu criminel ni d’aviser les forces de l’ordre de l’existence de contenu criminel, à l’exception de l’obligation de rapporter toute infraction liée à la pornographie juvénile. Une approche plus proactive en matière de signalement permettrait de demander des comptes à ceux qui ont des activités préjudiciables en ligne.

Le gouvernement du Canada s’est engagé à faire face aux préjudices en ligne tout en respectant la liberté d’expression, la vie privée et le libre échange d’idées et de débats en ligne.

Ce document de travail, de même que le document technique qui l’accompagne, expose la vision du gouvernement pour un environnement en ligne sûr, inclusif et ouvert. Il détaille une proposition de nouveau cadre législatif et réglementaire, avec des règles sur la manière dont les plateformes de médias sociaux et autres services en ligne doivent traiter les contenus préjudiciables. Le document présente aussi des façons possibles de relever les défis qui se posent aux forces de l’ordre et au Service canadien du renseignement de sécurité (SCRS) lorsqu’ils sont confrontés à du contenu en ligne illégal ou lié à la sécurité nationale.

Ce document est organisé en deux modules thématiques. Chaque module traite d’un élément de la vision du gouvernement. Des éléments détaillés sont inclus dans le document technique qui suit. Celui-ci offre notamment des détails expliquant comment chaque module pourrait être mis en œuvre dans la législation à venir.

Module 1 : Un nouveau cadre législatif et réglementaire pour les plateformes de médias sociaux

Le nouveau cadre législatif et réglementaire viserait les types de contenus préjudiciables en ligne les plus flagrants et les plus répréhensibles, y compris les contenus criminels ou menaçant la sécurité nationale. Il privilégierait un Internet sûr, ouvert et inclusif où les Canadiens ont le sentiment de pouvoir s’exprimer sans être victimisés ou ciblés par certains types de contenus préjudiciables. L’approche proposée respecte et protège les droits de la personne, tout en respectant les libertés fondamentales, notamment la liberté d’expression.

Qui et quoi seraient réglementés

La nouvelle législation s’appliquerait aux « services de communication en ligne ».

L’intention derrière le concept de services de communication en ligne est de regrouper les principales plateformes (par ex. : Facebook, Instagram, Twitter, YouTube, TikTok, Pornhub) et d’exclure les produits et services qui ne se qualifient pas comme service de communication, tels que les applications de mise en forme ou les sites internet de commentaires liés aux voyages.

La législation ne s’appliquerait pas aux communications privées, ni aux fournisseurs de services de télécommunications ou à certains opérateurs de services techniques. Des exemptions toucheraient expressément ces services.

La législation permettrait au gouvernement d’inclure ou d’exclure certaines catégories de services de communication en ligne de la mise en œuvre de la législation, en vertu de certains paramètres.

La législation s’attaquerait à cinq catégories de contenus préjudiciables :

Bien que toutes les définitions s’appuieraient sur le droit existant, y compris sur les infractions et les définitions actuelles du Code criminel, celles-ci seraient modifiées afin de les adapter à un contexte réglementaire plutôt que pénal.

Ces catégories ont été choisies parce qu’il s’agit des types de contenu préjudiciable les plus flagrants. Le gouvernement reconnaît qu’il existe d’autres préjudices en ligne qui pourraient également être examinés et éventuellement traités dans le cadre d’un programme ou de nouvelles mesures législatives.

Le gouvernement propose également d’apporter des améliorations à la Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent des services Internet (la Loi sur la déclaration obligatoire). Les modifications proposées sont présentées en détail dans le module 2 : « Modifier le cadre législatif canadien existant ». La nouvelle législation sur les contenus préjudiciables en ligne ne remplacera aucune définition ou obligation contenue dans la Loi sur la déclaration obligatoire, ni aucune mesure de mise en œuvre, aucune institution et aucun protocole pour la déclaration de la pornographie juvénile et les enquêtes s’y rapportant.

Nouvelles règles et obligations

La nouvelle législation établirait une obligation légale pour les entités réglementées de prendre toutes les mesures raisonnables pour rendre les contenus préjudiciables inaccessibles au Canada. Cette obligation obligerait les entités réglementées à faire tout ce qui est raisonnable et en leur pouvoir pour surveiller les catégories réglementées de contenus préjudiciables sur leurs services, y compris par l’utilisation de systèmes automatisés basés sur des algorithmes.

Une fois qu’un usager aurait signalé un contenu, l’entité réglementée serait tenue de répondre à ce signalement en évaluant si le contenu visé devrait être rendu inaccessible au Canada, en se basant sur les définitions établies dans la loi. Si le contenu répond effectivement à l’une de ces définitions légales, l’entité réglementée serait tenue de rendre le contenu inaccessible au Canada dans les 24 heures suivant le signalement.

Les entités réglementées seraient également tenues d’établir des systèmes robustes de signalement, de notification et d’appel, tant pour les auteurs de contenu que pour ceux qui signalent le contenu. Lorsqu’une entité réglementée décidera de rendre un contenu inaccessible au Canada, elle sera tenue d’informer l’auteur du contenu et le signaleur de sa décision, et de donner à chaque partie la possibilité de faire appel de cette décision auprès de l’entité réglementée.

La nouvelle législation proposée exigerait aussi que les entités réglementées soient plus transparentes dans leurs opérations. Les entités réglementées seraient tenues de publier des informations qu’elles ne publient pas actuellement, avec des exigences de transparence de base définies dans la loi et précisées par voie de règlement. Cela inclurait notamment de données propres au Canada sur le volume et le type de contenu traité à chaque étape du processus de modération du contenu, ainsi que des informations sur la manière dont les entités réglementées élaborent, mettent en œuvre et actualisent leurs lignes directrices concernant les types de contenu qu’elles interdisent. Les entités réglementées seraient également tenues de publier des rapports de transparence sur l’utilisation et l’impact, au Canada, de leurs systèmes automatisés pour modérer, retirer et bloquer l’accès au Canada à des contenus préjudiciables.

Rôle des forces de l’ordre et CSIS

La construction d'un cadre réglementaire avec des exigences de suppression de contenu implique la prise en compte de l'interaction entre les nouveaux règlements et le rôle des forces de l'ordre et du SCRS dans l'identification des menaces à la sécurité publique et la prévention de la violence. La suppression à elle seule pourrait pousser les acteurs publics de la menace au-delà de la visibilité des forces de l'ordre et du SCRS, vers des sites Web et des plates-formes cryptés avec un contenu préjudiciable plus extrémiste et non modéré.

Pour trouver un équilibre entre ces considérations d’intérêt public, le cadre réglementaire exigerait que les entités réglementées déclarent certains types de contenu aux forces de l’ordre et au SCRS afin de permettre la mise en place d’enquêtes et de mesures de préventions appropriées. Le gouvernement étudie des options afin d’arriver à un juste équilibre quant aux exigences de déclaration obligatoire, en particulier en ce qui concerne leur portée et les seuils qui déclencheraient ces exigences de déclaration. Les deux options potentielles suivantes sont à considérer :

En outre, les entités réglementées seraient tenues de préserver les renseignements prescrits qui pourraient appuyer une enquête lorsque ces renseignements sont demandés par des moyens légaux (p. ex., une ordonnance de production). La nature spécifique des informations à préserver (y compris les informations de base sur l'abonné, les données de localisation, le contenu lui-même, l'infraction présumée ou la menace pour la sécurité nationale) serait déterminée par un règlement pris par le gouverneur en conseil. L'obligation de préservation des preuves serait conçue pour empêcher les entités réglementées de supprimer des preuves, comme des renseignements d'identification, qui pourraient être obtenus légalement par les forces de l’ordre et le SCRS au moyen d'autorisations judiciaires, y compris des ordonnances de production et des mandats de perquisition.

Mise en place de nouveaux organismes de réglementation

La loi proposée créerait une nouvelle Commission canadienne de sécurité numérique afin de soutenir trois organismes qui mettraient en œuvre, superviseraient et appliqueraient le nouveau régime : le Commissaire à la sécurité numérique du Canada, le Conseil de recours en matière numérique du Canada et un Comité consultatif d'experts.

Le Commissaire à la sécurité numérique du Canada (le Commissaire) administrerait, superviserait et appliquerait les nouvelles exigences législatives mentionnées ci-dessus. Il aurait également pour mandat de diriger des recherches et des programmes et d'y participer, de réunir les parties intéressées et de collaborer avec elles, et d'aider les entités réglementées à lutter contre les cinq catégories de contenu préjudiciable en ligne sur leurs services.

Le Conseil de recours en matière numérique du Canada (le Conseil de recours) offrirait aux Canadiens un recours indépendant contre les décisions de modération du contenu prises par les entités réglementées, comme les plateformes de médias sociaux. Une fois que les usagers auront épuisé toutes les voies de recours au sein des entités réglementées elles-mêmes, ils pourront soumettre leur cas au Conseil de recours pour décision. Le Conseil de recours rendrait des décisions indépendantes et contraignantes sur la question de savoir si un contenu est considéré comme préjudiciable au sens de la législation et doit être rendu inaccessible.

Si le Conseil de recours estime qu'un contenu constitue un contenu préjudiciable et doit être rendu inaccessible, il rendra une décision contraignante à l'entité réglementée sur laquelle le contenu a été publié. À l'inverse, s'il estime que le contenu ne constitue pas un contenu préjudiciable au sens de la loi, il communiquerait cette décision à l'entité réglementée, qui déciderait alors de maintenir, de rétablir, de bloquer l'accès au contenu ou de le supprimer, sous réserve des règlements internes propres à l'entité.

La législation exigerait, lors de la nomination des membres du Conseil de recours, la prise en compte d'une expertise diversifiée en la matière et d'une composition reflétant la population canadienne. Le Conseil de recours serait soumis à l'obligation de faire rapport au public pour s'assurer qu'il demeure transparent dans ses opérations et ses processus décisionnels.

Un Comité consultatif (le Comité) fournirait au Commissaire et au Conseil de recours des conseils d'experts pour éclairer leurs processus et leurs décisions, comme des conseils sur les nouvelles tendances et technologies de l'industrie et les normes de modération du contenu.

Le Comité ne s'impliquerait pas dans les décisions spécifiques de modération de contenu du Conseil de recours, ni dans les activités de réglementation, de conformité et d'application du Commissaire à la sécurité numérique. La législation prévoirait la composition du Comité, et ferait valoir l'importance de faire appel à une diversité d’experts en la matière et de membres de la société civile, d'experts juridiques, de communautés dignes d'équité, de peuples autochtones, de groupes de libertés civiles, de groupes de défense des victimes, de l'industrie et du milieu universitaire.

Les budgets de fonctionnement du Commissaire et du Conseil de recours seraient payés à terme par les entités réglementées elles-mêmes, sous la forme de redevances réglementaires.

Conformité et application

Le Commissaire aurait le pouvoir de :

Module 2: Modifier le cadre législatif canadien existant

En plus des modifications législatives proposées en vertu du projet de loi C-36, d'autres modifications au cadre juridique actuel du Canada pour lutter contre le contenu préjudiciable en ligne pourraient inclure :

Loi concernant la déclaration obligatoire de la pornographie juvénile sur Internet par les personnes qui fournissent un service Internet (la Loi sur la déclaration obligatoire)

Adoptée en 2011, le gouvernement propose de modifier la Loi sur la déclaration obligatoire pour lui permettre de mieux faire face au rythme rapide des changements et à l'évolution de la façon dont le matériel illustrant l'exploitation sexuelle des enfants est créé et partagé en ligne aujourd'hui. Des réformes ciblées de la Loi sur la déclaration obligatoire et de ses règlements permettraient d'améliorer les mesures de lutte contre l'exploitation sexuelle des enfants en ligne, de soutenir les enquêtes et d'aider à sauver les enfants qui se trouvent dans des circonstances abusives.

Le gouvernement modifierait le Loi sur la déclaration obligatoire de la façon suivante :

  1. centraliser la déclaration obligatoire des infractions liées à la pornographie juvénile en ligne par l'entremise du Centre national de lutte contre l'exploitation des enfants (CNCEE) de la Gendarmerie royale du Canada ;
  2. préciser que la Loi sur la déclaration obligatoire s'applique à tous les types de services Internet, y compris les plateformes de médias sociaux et autres services basés sur des applications ;
  3. améliorer la transparence en exigeant que le CNCEE présente un rapport annuel aux ministres de la Sécurité publique et de la Protection civile et de la Justice ;
  4. imposer une obligation de conservation de 12 mois pour les données informatiques (au lieu des 21 jours actuels) ;
  5. désigner, dans les règlements, une personne chargée de recueillir des renseignements pour déterminer l'application de la Loi sur la déclaration obligatoire ;
  6. obliger les fournisseurs de service Internet de fournir, sans autorisation judiciaire, des renseignements supplémentaires au CNCEE lorsqu'une infraction liée à la pornographie enfantine est constatée.

Fourniture de données de transmission ou d'informations de base sur l'abonné

Les forces de l’ordre ont besoin de renseignements précis lorsqu’elles reçoivent des rapports de contenu qui montrent qu’une infraction liée à la pornographie juvénile a manifestement été commise, pour qu’elles puissent faire enquête, identifier les délinquants, protéger les victimes d’une exploitation sexuelle continue et empêcher que d’autres enfants soient victimes. Dans le cadre de la législation actuelle, lorsque du contenu leur est signalé, elles tentent d’obtenir ces renseignements en demandant une ordonnance du tribunal.

Actuellement, les rapports fournis en vertu de la Loi sur la déclaration obligatoire ne sont pas tenus d’inclure certains renseignements comme les données de transmission (c.-à-d., l’adresse du protocole Internet (l’adresse IP), la date, l’heure, le type, l’origine, la destination du matériel, comme il est défini dans le Code criminel) ou les renseignements de base sur l’abonné (c.-à-d., le nom du client, son adresse, son numéro de téléphone, l’information de facturation associée à l’adresse IP). Le gouvernement se demande si les données de transmission ou les renseignements de base sur l’abonné devraient être inclus dans les rapports transmis aux forces de l’ordre sans autorisation judiciaire.

Par l’ajout de ces renseignements, on souhaite accélérer l’intervention de la police dans les cas où une infraction liée à la pornographie juvénile est manifeste.

Si les organisations déclarantes étaient tenues d’inclure les données de transmission dans leurs rapports obligatoires aux forces de l’ordre lorsqu’une infraction liée à la pornographie juvénile a été commise, la police serait en mesure d’identifier la personne qui fournit le service Internet ainsi que l’instance compétente. La police serait néanmoins toujours dans l’obligation d’obtenir une ordonnance de communication pour les renseignements de base sur l’abonné et les renseignements d’identification des personnes qui fournissent un service Internet pour pouvoir lancer une enquête.

Alternativement, si les organisations déclarantes n’étaient pas tenues d’inclure quelque renseignement de base sur l’abonné que ce soit dans leurs rapports obligatoires aux forces de l’ordre, la police ne serait pas dans l’obligation de demander une ordonnance de communication pour obtenir ces renseignements de personnes qui fournissent un service Internet.

Des renseignements obligatoires au-delà de ce qui est requis en vertu de la Loi sur la déclaration obligatoire continueraient d’être obtenus auprès des fournisseurs par la police en vertu d’une ordonnance du tribunal.

Modification de la Loi sur le Service canadien du renseignement de sécurité (Loi sur le SCRS)

Le Web compterait jusqu’à des dizaines de milliers de groupes extrémistes violents qui ont des motivations idéologiques, lesquels agissent comme salles d’écho de la haine pour des adeptes du monde entier. La mobilisation menant à la violence peut se produire rapidement, souvent en quelques semaines ou quelques mois. Un accès plus rapide aux renseignements de base de l’abonné pourrait contribuer à atténuer la menace de contenu extrémiste violent sur le Web et ses incidences dans le monde réel.

Les modifications apportées au processus d'autorisation judiciaire actuel, tout en maintenant la surveillance de la Cour fédérale et du ministre, pourraient représenter un moyen de permettre au SCRS d'identifier plus rapidement les auteurs de menaces en ligne, et d'enquêter et d'atténuer la propagation de récits extrémistes violents qui peuvent inspirer des actes de violence dans le monde réel. Actuellement, le SCRS ne dispose que d’une option de mandat qui est conçu pour demander des pouvoirs intrusifs auprès de la Cour fédérale. Or, de quatre à six mois peuvent s’écouler avant de faire la demande et d’obtenir l’approbation de la Cour fédérale. Les forces de l’ordre sont en mesure d’obtenir les renseignements de base de l’abonné dans un délai de huit à dix jours.

La possible nouvelle autorisation à l’égard des renseignements de base de l’abonné serait octroyée par un juge indépendant de la Cour fédérale et ferait l’objet d’une supervision ministérielle. Elle ne remplacerait pas ni n’éliminerait l’obligation du SCRS d’obtenir les pleins pouvoirs conférés par mandat auprès de la Cour fédérale si une enquête plus poussée vis-à-vis de la menace était nécessaire. Comme pour l’ensemble des activités du SCRS, les demandes à l’égard des renseignements de base de l’abonné pourraient être examinées par l’Office de surveillance des activités en matière de sécurité nationale et de renseignement et le Comité des parlementaires sur la sécurité nationale.

Signaler un problème ou une erreur sur cette page
Veuillez sélectionner toutes les cases qui s'appliquent :

Merci de votre aide!

Vous ne recevrez pas de réponse. Pour toute question, contactez-nous.

Date de modification :