Séance d’introduction

Qu'est-ce qu'une feuille de travail?

Chaque session du groupe consultatif sera appuyée par une feuille de travail, comme celle-ci, mise à la disposition du groupe avant chaque session. L'objectif de ces feuilles de travail est de soutenir la discussion et d'organiser les commentaires et les suggestions reçus. Ces feuilles de travail seront rendues publiques après chaque session.

Chaque feuille de travail comportera une série de questions auxquelles les membres du groupe seront invités à répondre par écrit. Un résumé non attribué de ces soumissions sera publié chaque semaine pour aider à mener les travaux de manière transparente.

L'approche proposée dans chaque feuille de travail représente les idées préliminaires du gouvernement sur un certain sujet, sur la base des commentaires reçus lors de la consultation de juillet à septembre 2021. Il s'agit d'un outil destiné à faciliter la discussion. Les idées et le langage partagés sont censés représenter un point de départ, pour obtenir des réactions et des rétroactions. Les conseils reçus lors de ces consultations aideront le gouvernement à concevoir un cadre législatif et réglementaire efficace et équilibré pour lutter contre les contenus préjudiciables en ligne. Ni l’avis du groupe ni les opinions préliminaires exprimées dans les feuilles de travail constituent les opinions finales du ministère du Patrimoine canadien ou du gouvernement du Canada.

Objectifs

  1. Obtenir vos observations sur la proposition antérieure et la réglementation du contenu en ligne en général. Du 29 juillet au 25 septembre 2021, le gouvernement du Canada a mené une consultation publique sur son approche proposée visant à s’attaquer au contenu préjudiciable en ligne. Nous vous demandons maintenant de nous faire part de vos réactions pour nous aider à identifier ce qui a fonctionné et ce qui n'a pas fonctionné. Nous sollicitons également votre avis sur ce qui, selon vous, devrait être inclus dans un cadre réglementaire efficace pour les contenus en ligne – et ce qui, selon vous, devrait également être évité.
  2. Présenter et recueillir des rétroactions sur le processus pour les séances à venir. Vous disposerez de suffisamment de temps et d’occasion pour vous faire entendre et pour exprimer vos préoccupations, idées et recommandations. À cette fin, il vous sera demandé de soumettre des propositions écrites visant à répondre aux questions de discussion proposées avant chaque session. Les questions de discussion se trouvent à la fin de chaque feuille de travail. Bien que vos contributions permettront d’appuyer et d’encadrer les discussions, les séances d’atelier ne devront pas reproduire vos réponses écrites au long et en détail. Vous pourrez réviser votre contribution et fournir une version actualisée après les séances.
  3. Cernez les autres thèmes que vous souhaitez explorer en profondeur, en plus de ce qui figure au programme. Chacune des séances de fond planifiées portera sur un aspect clé différent de la proposition du gouvernement de réglementer les contenus préjudiciables en ligne. Les sujets reflètent la compréhension qu'a le gouvernement des principales questions soulevées lors de la consultation de juillet-septembre 2021. Toute contribution supplémentaire sur les sujets de discussion principaux est la bienvenue.

Points de départ

De façon générale, les personnes qui ont répondu dans le cadre de la consultation du gouvernement menée durant l’été 2021 ont exprimé leur désir d’un cadre équilibré, proportionné et pratique pour s’attaquer au contenu préjudiciable en ligne au Canada. Beaucoup ont manifesté qu’ils préféraient un régime dans lequel toute limitation des droits des Canadiens devrait être proportionnel aux objectifs du gouvernement et ont souligné l’importance de promouvoir un environnement en ligne dans lequel tous les Canadiens peuvent exercer et jouir de leurs droits fondamentaux, y compris la liberté d’expression , et le droit à l’égalité. Les répondants ont également mis en lumière des considérations pratiques, soulignant que la façon la plus efficace de s'attaquer à la pléthore de contenu préjudiciable en ligne est de réglementer et de superviser les processus et les systèmes que les plateformes de médias sociaux et autres services en ligne ont mis en place.

Compte tenu de la façon de recadrer la proposition présentée aux fins de consultation, l’approche mise de l’avant par le Royaume-Uni dans son document intitulé Online Safety Bill (projet de loi sur la sécurité en ligne) [en anglais seulement] peut être un modèle utile de suivre. Le modèle du R.-U. établirait une nouvelle « obligation de diligence » prévue dans la loi afin de forcer les plateformes à faire preuve de transparence et d’imputabilité quant à la sécurité de leurs utilisateurs. Cela fournirait aux organismes de réglementation la souplesse requise pour s’attaquer aux préjudices causés par le contenu présenté dans leurs services de la manière la plus efficace et efficiente possible. Dans le même sens, le cadre à jour du Canada pourrait se concentrer sur les systèmes, les outils et les approches des services en ligne qui sont en place pour s’attaquer au contenu préjudiciable. Le cadre décrit dans la consultation de juillet-septembre 2021 se concentrait sur ce que les services réglementés seraient obligés de retirer et comment ils seraient tenus de le faire, y compris un calendrier spécifique à respecter. Une approche actualisée pourrait passer d’un régime fondé sur des obligations de modération rigide à un cadre général obligeant les plateformes à évaluer le risque que présente le contenu préjudiciable sur leurs services et à fournir des détails sur la façon dont elles atténueront le risque cerné et répondront aux cas de préjudice en ligne sur leurs plateformes.

En ce qui concerne la modération du contenu, les plateformes en tant que telles offrent un avantage en termes d’information et d’expérience. Les gouvernements, les chercheurs, les experts et la société civile font face à un manque d’information sur la prévalence et la modération du contenu préjudiciable en ligne. En revanche, depuis des années, les services en ligne prennent des décisions sur le contenu qui devrait ou ne devrait pas être affiché sur leurs plateformes sans transparence, sans obligation de rendre des comptes et sans contrôle. Ils sont devenus des experts en matière de modération du contenu, advenant que cela touche leurs propres intérêts, tout en ne faisant preuve ni de transparence ni d’imputabilité. Un cadre législatif et réglementaire pour la sûreté en ligne doit à la fois faire face à cette asymétrie d'information et d'expérience et s'adapter à sa réalité. Adopter une approche fondée sur les systèmes serait utile sur les deux fronts. Elle obligerait les services réglementés à produire beaucoup plus d'informations et de données concernant la prévalence et la modération des contenus préjudiciables. Elle imposerait un ensemble d'obligations générales de surveillance, de modération et de gestion des contenus préjudiciables et de leurs risques. Enfin, elle donnerait aux services réglementés une certaine souplesse pour déterminer eux-mêmes comment modérer et surveiller les contenus sur leurs plateformes et décider de la meilleure approche pour remplir leurs obligations générales.

Par conséquent, un cadre législatif et réglementaire mis à jour devrait porter principalement sur l’atteinte de trois objectifs :

  1. Réduire la quantité de contenus préjudiciables en ligne et le risque qu’ils présentent pour les Canadiens, tout en fonctionnant selon les paramètres de la Charte canadienne des droits et libertés. Le cadre législatif viserait à favoriser un environnement sécuritaire et inclusif dans Internet qui permettrait aux gens qui vivent au Canada d’estimer qu’ils peuvent s’exprimer sans être ciblés par des contenus préjudiciables ou en être victimes.
  2. Favoriser la transparence, la surveillance et l’imputabilité au chapitre de la modération du contenu au Canada. L’une des fonctions du cadre devant jouer un rôle clé sera l’établissement d’obligations de transparence et de signalement sur les plateformes afin de permettre au gouvernement de mieux comprendre la prévalence du contenu préjudiciable et d’évaluer l’efficacité des politiques et pratiques de modération du contenu des plateformes.
  3. Mettre en place un régime de réglementation efficace soutenu par l’établissement de normes et d’une orientation et la collaboration. Les cadres législatifs qui visent à réglementer le contenu préjudiciable en ligne dans d’autres administrations, comme l’Australie, suggèrent que les principales plateformes de média sociaux accueillent presque toujours de façon favorable l’orientation et les demandes des gouvernements en ce qui a trait au contenu préjudiciable. L’établissement d’une base solide pour la mobilisation, la collaboration et l’établissement d’un partenariat entre les plateformes réglementées et un nouveau régulateur pourrait donner lieu à des changements efficaces. Alors qu’à l’heure actuelle, la transparence est limitée et l’information et les données sont dispersées, un régime réglementaire efficace peut, au fil du temps, soutenir un écosystème et des normes renforcés en matière d’information quant à la surveillance, la modération et la gestion du contenu préjudiciable en ligne.

Aperçu de l'approche proposée

Les principales plateformes et principaux services des réseaux sociaux qui sont majoritairement responsables du contenu préjudiciable seraient inclus dans le régime. Le cadre mettrait de l’avant une définition de « fournisseur de service de communication en ligne » qui engloberait les services que, intuitivement, les Canadiens associent au terme plateforme de médias sociaux (comme Facebook, YouTube, Instagram, Twitter et TikTok) ainsi que les services qui, bien que n’étant pas habituellement catégorisés comme des plateformes de médias sociaux, présentent un risque significatif en termes le plan de prolifération de contenu préjudiciable, comme PornHub. La loi offrirait au gouvernement une certaine discrétion pour préciser les services qui seraient exclus du régime. Cette discrétion aidera à veiller à l’établissement d’un cadre agile et souple.

Le cadre tenterait de réglementer les types de contenus préjudiciables en ligne qui, selon les Canadiens, doivent être réglementés. À l’instar du cadre proposé antérieurement, le cadre réglementerait cinq catégories de contenu préjudiciable : le contenu d’exploitation sexuelle des enfants en ligne, le partage non consensuel d’images intimes, le contenu terroriste, le contenu incitant à la violence et le discours haineux. Les définitions globales du contenu identifié dès le début découlent du Code criminel, de la jurisprudence et d’autres mesures législatives canadiennes. D’autres types de contenus préjudiciables pourraient être examinés en vue de leur inclusion éventuelle dans le régime.

Un nouveau régulateur, le commissaire à la sureté numérique, serait créé pour administrer et faire appliquer le cadre. La loi fournirait les autorisations et les pouvoirs nécessaires au commissaire à la sureté numérique afin qu’il puisse assurer son administration, sa surveillance et son renforcement. Pour s’assurer que les entités réglementées sont tenues responsables des engagements qu’ils formulent dans leur PSN et de l’information qu’ils rendent publique, le commissaire devrait se voir accorder des pouvoirs d’audit et d’inspection. Le commissaire devrait aussi obtenir les outils nécessaires pour empêcher et aborder la non-conformité, y compris la capacité d’imposer des pénalités et d’avoir recours à des outils plus puissants en matière de conformité comme mesures de dernier recours.

Un devoir de diligence que les plateformes devraient respecter afin de prendre toutes les mesures raisonnables visant à cerner et atténuer un préjudice prévisible qui découlerait du fonctionnement et de la conception de leurs services serait affirmé. Les entités réglementées seraient tenues de déposer leur plan de sûreté numérique (PSN) respectif auprès du commissaire à la sûreté numérique. Les PSN feraient en sorte d’exiger que les entités réglementées mènent une évaluation des risques du contenu préjudiciable sur leurs plateformes et de présenter en détail leurs mesures, systèmes et processus d’atténuation face à de tels risques. Dans le but d’aider à assurer l’imputabilité, le commissaire à la sûreté numérique attesterait les PSN des plateformes et leur transmettrait une orientation et des ordonnances, au besoin, afin de veiller à ce que les plans soient conformes aux exigences législatives et réglementaires, ou à d'autres règles fixées par le commissaire. Pour favoriser le renforcement de la transparence, les entités réglementées seraient tenues de souligner les informations concernant leur PSN respectif en des termes accessibles au public et de préciser comment leurs utilisateurs sont protégés contre le contenu préjudiciable sur leurs plateformes.

Le cadre permettrait de promouvoir et de protéger la liberté d’expression, le droit à l'égalité, et les droits à la vie privée. Quelques protections seraient incluses dans la proposition afin d’aider à atténuer les risques pour les droits des Canadiens. La loi nécessiterait que toutes les entités réglementées, en honorant leurs obligations, tiennent compte des conséquences de leurs politiques et procédures de sécurité sur la liberté d’expression des utilisateurs, leur droit à l'égalité, et la protection de leur vie privée. La loi présenterait également des définitions encadrées pour les entités réglementées et le contenu réglementé qui permettraient d’atténuer le risque que le régime soit excessif. De plus, le cadre comprendrait des mécanismes d'équité procédurale efficaces et efficients, y compris l’obligation que les entités réglementées présentent un avis aux utilisateurs et permettent que des représentations soient faites, ainsi que la possibilité de demander d’examiner de nouveau des décisions précises en matière de modération du contenu. Finalement, la loi exigerait que les données des utilisateurs et leur droit à la vie privée soient protégés par des mécanismes de protection de la vie privée lors du dépôt de plaintes et les représentations, incluant les audiences à huis clos, au besoin, et les protections requises lorsqu’il s’agit de conserver des données et échanger des renseignements avec d’autres organisations du gouvernement, y compris les organismes d’application de la loi.

Des modifications complémentaires à la Loi canadienne sur les droits de la personne (LCDP) pour lutter contre les discours haineux en ligne, comme dans l'ancien projet de loi C-36, seraient introduites. La LCDP définirait comme un « acte discriminatoire » la communication par Internet ou par d'autres moyens de télécommunication de discours haineux dans des contextes où elle est susceptible de fomenter la détestation ou la diffamation pour des motifs de discrimination interdits. L'interdiction s'appliquerait directement aux utilisateurs qui communiquent ou font communiquer des propos haineux, y compris sur les plateformes réglementées par le commissaire à la sûreté numérique, et aux exploitants de sites Web et d'autres forums en ligne qui publient les communications de leurs utilisateurs; mais elle ne s'appliquerait pas aux exploitants de plateformes réglementées par le commissaire à la sûreté numérique. Les particuliers et les groupes pourraient déposer des plaintes auprès de la Commission canadienne des droits de la personne, qui déciderait de les renvoyer ou non au Tribunal canadien des droits de la personne. Le Tribunal aurait le pouvoir d'ordonner aux parties de supprimer et de cesser de communiquer le discours haineux; d'indemniser toute victime spécifiquement identifiée dans le discours haineux d'un montant ne dépassant pas vingt mille dollars, mais seulement si l’intimité est un auteur ou un contributeur au discours haineux et non un simple éditeur ou intermédiaire; et de payer une pénalité ne dépassant pas cinquante mille dollars si cela est nécessaire pour inciter à la conformité.

Questions à l'appui aux fins de discussion

  1. Obtenir vos observations sur la proposition antérieure et la réglementation du contenu en ligne en général.
    1. Croyez-vous que certains commentaires importants auraient dû être formulés dans le rapport sur Ce que nous avons entendu?
    2. Qu'est-ce qui vous a le plus étonné dans les cadres législatif et réglementaire élaborés par d'autres administrations? Que pouvons-nous apprendre de leur réussite?
    3. Outre une réduction marquée des contenus prejudiciables en ligne, quels seraient les principaux objectifs en matière de politiques pour l'établissement d'un cadre révisé efficace? Quels sont les pouvoirs, outils et obligations que vous présenteriez pour atteindre ces objectifs?
    4. À votre avis, quelles sont les erreurs les plus flagrantes que les gouvernements commettent lorsqu'ils tentent de réglementer le contenu préjudiciable en ligne? Que pouvons-nous apprendre de leurs erreurs? Que pouvons-nous apprendre de leur réussite?
  2. Présentez et recueillez la rétroaction sur le processus pour les séances à venir.
    1. Le processus proposé nous permet-t-il d’atteindre nos objectifs qui sont (a) de communiquer avec vous sur notre réflexion préliminaire et (b) d’obtenir vos impressions et recommandations sur les principaux éléments d’un cadre de réglementation?
    2. Vous donne-t-on suffisamment l’occasion d’exprimer vos préoccupations et de dialoguer avec les autres participants et le gouvernement?
  3. Cernez les autres thèmes que vous souhaitez explorer en profondeur, en plus de ce qui figure à notre programme.
    1. Souhaitez-vous discuter d’autres préoccupations thématiques globales?
    2. Souhaitez-vous ajouter des points précis à aborder durant nos séances actuelles?

Cette publication est disponible sur demande en formats alternatifs.

Cette publication est disponible sur Internet à l'adresse suivante :

Patrimoine canadien - Canada.ca

©Sa Majesté la Reine du chef du Canada, 2021

Numéro de catalogue : XX0-0/0000

ISBN : 0-000-00000-0

Détails de la page

Date de modification :