Troisième séance : obligations législatives et réglementaires
Qu'est-ce qu'une feuille de travail?
Chaque session du groupe consultatif sera appuyée par une feuille de travail, comme celle-ci, mise à la disposition du groupe avant chaque session. L'objectif de ces feuilles de travail est de soutenir la discussion et d'organiser les commentaires et les suggestions reçus. Ces feuilles de travail seront rendues publiques après chaque session.
Chaque feuille de travail comportera une série de questions auxquelles les membres du groupe seront invités à répondre par écrit. Un résumé non attribué de ces soumissions sera publié chaque semaine pour aider à mener les travaux de manière transparente.
L'approche proposée dans chaque feuille de travail représente les idées préliminaires du gouvernement sur un certain sujet, sur la base des commentaires reçus lors de la consultation de juillet à septembre 2021. Il s'agit d'un outil destiné à faciliter la discussion. Les idées et le langage partagés sont censés représenter un point de départ, pour obtenir des réactions et des rétroactions. Les conseils reçus lors de ces consultations aideront le gouvernement à concevoir un cadre législatif et réglementaire efficace et équilibré pour lutter contre les contenus préjudiciables en ligne. Ni l’avis du groupe ni les opinions préliminaires exprimées dans les feuilles de travail constituent les opinions finales du ministère du Patrimoine canadien ou du gouvernement du Canada.
Sujet de Discussion
Quelles sont les obligations législatives et réglementaires qui devraient être imposées aux entités réglementées en vue de réduire la quantité des préjudices en ligne et gérer le risque qu’ils posent?
Objectifs
- Examiner les avantages et les inconvénients des obligations réglementaires conçues autour d’un « devoir de diligence ». Les participants sont invités à partager leurs points de vue au sujet d’un cadre de réglementation fondé sur des systèmes pour renforcer la transparence au chapitre de la modération de contenu sur les plateformes, adopter des mécanismes qui tiennent les services en ligne responsables du contenu préjudiciable affiché sur leurs plateformes et établir les normes de base qui traitent de la modération de contenu au Canada.
- Déterminer le niveau et l’étendue appropriée des obligations à imposer sur les services en ligne. Les participants sont invités à partager leurs points de vue sur la façon d’équilibrer l’objectif de lutte contre le contenu préjudiciable avec un ensemble d’obligations raisonnables et réalisables pour les entités réglementées. Les participants sont aussi invités à partager leurs points de vue sur la façon de gérer les questions liées aux conséquences plus larges sur le marché résultant de la réglementation proposée.
- Tenir compte de la souplesse requise dans les obligations réglementaires. Les mesures législatives pourraient établir des exigences générales. Une réglementation subséquente pourrait souligner la façon dont les entités réglementées doivent satisfaire ces obligations. Une telle réglementation pourrait être guidée par les conversations entre l’organisme de réglementation et les entités réglementées afin d’assurer une collaboration maximale et, du même coup, la conformité.
Points de départ
- L’objectif est de réduire la quantité de contenu préjudiciable en ligne et le risque qu’il présent pour les utilisateurs canadiens. À la lumière des réponses à la consultation publique qui a eu lieu en 2021, il a émergé qu’un modèle de réglementation du contenu préjudiciable ne devrait pas être organisé autour de la question de savoir si une plateforme réglementée modère adéquatement un contenu donné. Une préférence serait plutôt donnée à un modèle de réglementation axé sur les systèmes, les outils et les approches que les plateformes ont en place pour s’attaquer au contenu illégal et préjudiciable, un peu comme dans le cas de la proposition mise de l’avant par le Royaume-Uni (R.-U.) dans son récent Online Safety Bill (projet de loi sur la sûreté en ligne) [en anglais seulement].
- Une réglementation du contenu en ligne efficace et fondée sur les systèmes viserait l’atteinte de trois objectifs :
- accroître la transparence et l’examen minutieux de la façon dont les entités réglementées surveillent et modèrent le contenu préjudiciable;
- exiger l’imputabilité quant aux systèmes, plans et procédures mis en place par les plateformes pour cerner et gérer le contenu préjudiciable;
- mettre de l’avant des normes de base pour la surveillance et la modération du contenu préjudiciable sur ces plateformes.
- Il y a deux avantages généraux associés à cette approche axée sur les systèmes qui favorisent l’attente de ces objectifs. Le premier est qu’elle cherche à réduire au minimum les limites imposées à la liberté d’expression en veillant à ce qu’elles soient raisonnables et atténuées par l’équité et les protections procédurales. Le deuxième est qu’elle cherche à mettre en œuvre un régime de réglementation pratique, réalisable et efficace sur le plan administratif. Ces avantages sont particulièrement importants pour une société démocratique libérale comme le Canada et pour qu’un organisme de réglementation puisse fonctionner adéquatement.
Aperçu de l’approche proposée
- Établir un devoir de diligence à imposer aux entités réglementées avec une série de mesures législatives et réglementaires. La loi établirait l’étendue du devoir de diligence en termes généraux et établirait certaines obligations spécifiques qui seraient imposées aux entités réglementées. Les règlements, publié par le gouverneur en conseil, le commissaire à la sûreté numérique, ou les deux, présenterait en détail les systèmes et processus que les entités réglementées seraient tenues d’adopter afin de s’acquitter de leurs obligations législatives. Le commissaire serait en mesure d’adapter les exigences réglementaires aux différents types d’entités réglementées selon des facteurs établis par la loi comme le risque de danger, la taille et la capacité.
Ces obligations, à tout le moins, forceraient les entités réglementées à agir de la façon décrite ci-dessous :
- Surveiller tout contenu préjudiciable et prendre des mesures proportionnées pour atténuer le risque cerné. Les entités réglementées seraient tenues de déposer des plans de sûreté numérique (PSN) auprès du commissaire de la sûreté numérique et de tenir ces documents à jour périodiquement. Les PSN nécessiteraient que les entités réglementées mènent une évaluation du risque d’affichage de contenu préjudiciable sur leurs plateformes et présentent en détail leurs mesures, systèmes et processus d’atténuation pour s’attaquer à ces risques. Les règlements préciseraient ce que les entités réglementées doivent inclure dans leurs PSN ainsi que les mesures d’atténuation potentielles. Par exemple, les règlements souligneraient que les entités réglementées doivent inclure des détails sur le volume de contenu préjudiciable présent sur leurs plateformes, l’exposition de leurs utilisateurs à un tel contenu, le volume signalé aux forces de l’ordre, les détails sur la façon dont leurs pratiques de modération réduisent la présence et la diffusion d’un tel contenu, ainsi que leurs mesures en matière de réussite.
- Assurer l’imputabilité et la transparence dans les pratiques de modération de contenu. Les entités réglementées seraient tenues de publier les informations qu’elles ne publient pas actuellement et satisfaire les exigences de base en matière de transparence établies dans la loi et précisées dans la réglementation. Les mesures législatives veilleraient à ce que les entités réglementées soulignent comment elles protègent leurs utilisateurs contre le contenu préjudiciable sur leurs plateformes. Elles seraient obligées de décrire les grandes lignes de leurs PSN dans leurs modalités de service accessibles au public. Elles seraient tenues de s’assurer que leurs modalités de service sont claires, accessibles et appliquées de manière cohérente. Les entités réglementées seraient également obligées de publier des rapports périodiques au moment de la mise à jour de leurs PSN en précisant leurs évaluations de risques et mesures d’atténuation correspondantes. La réglementation préciserait le type d’informations provenant des PSN qui devrait être inclus dans ces documents publics.
- Promouvoir la liberté d’expression, le droit à l'égalité et les droits à la vie privée auprès des utilisateurs. La loi nécessiterait qu’au moment d’établir leurs PSN, les entités réglementées tiennent compte de l’importance de la protection des droits des utilisateurs à la liberté d’expression, à légalité et de leur protection contre les violations non justifiées de la vie privée. Les éléments de preuve d’une telle prise en considération seraient obligatoirement divulgués par les entités réglementées dans leurs rapports publics périodiques. Les services de catégorie 1, les principales plateformes réseaux sociaux, seraient en outre tenus de publier une évaluation dans leurs PSN quant à l’impact qu’ont leurs politiques et procédures de sûreté sur les droits des utilisateurs au chapitre de la liberté d’expression, de l'égalité et de la protection de la vie privée. Ces services seraient tenus de divulguer publiquement dans leurs PSN les étapes qu’ils ont suivies pour protéger ces droits, en réponse à leur évaluation d’impact. D’autres détails sur les types de protection attendus seraient précisés dans la réglementation, mais pourraient comprendre, par exemple, l’exigence que des personnes modératrices prennent les décisions dans les cas complexes pour lesquels le contexte est important.
- Assurer l’équité procédurale et fournir les outils nécessaires et des mécanismes de recours aux utilisateurs. Les mesures législatives obligeraient les entités réglementées à mettre en place des systèmes et des processus qui permettent aux utilisateurs d’indiquer un contenu qui, selon eux, est préjudiciable. Des exigences seraient imposées aux entités réglementées en les obligeant à établir des systèmes rigoureux de signalement, d’avis et d’appel, tant pour les auteurs de contenu que pour les utilisateurs qui signalent du contenu. Il serait exigé que les mécanismes d’appel soient faciles d’accès, conviviaux et transparents. Les entités réglementées seraient également tenues de se pencher sur les appels de manière appropriée et en temps opportun.
Questions à l’appui aux fins de discussion
- Examiner les avantages et les inconvénients des obligations réglementaires conçues autour d’un « devoir de diligence ».
- Compte tenu du but général de réduire l’exposition au contenu préjudiciable en ligne pour les Canadiens, quels objectifs précis d’un régime de réglementation de cet ordre devraient être établis?
- Ces objectifs sont-ils tous égaux? Est-il plus important d’atteindre certains objectifs par rapport à d’autres?
- Les PSN proposés seraient-ils suffisants pour atteindre les objectifs dont il est question ci-haut?
- Quelle est l’information comprise dans les obligations de transparence et d’établissement de rapports que les entités réglementées devraient fournir? Quelles sont les données les plus utiles pour le gouvernement, le public, les chercheurs et les universitaires?
- Quels seraient les mécanismes de recours et les protections procédurales les plus appropriées et efficaces pour les utilisateurs? Pour quel comportement des plateformes, le cas échéant, les utilisateurs devraient-ils pouvoir demander réparation au niveau du commissaire? Serait-il opportun que les utilisateurs puissent se plaindre auprès du commissaire de décisions spécifiques de modération de contenu prises par les plateformes?
- Déterminer le niveau convenable de fardeau réglementaire à imposer aux plateformes réglementées.
- Quel est le degré approprié de charge réglementaire à imposer aux entités réglementées?
- Quelle est la charge réglementaire appropriée à imposer aux "petites" plateformes?
- Comment le cadre devrait-il identifier les "petites" plateformes par rapport aux autres services réglementés?
- Quelles obligations spécifiques pourraient convenir aux différents types d’entités réglementées (par exemple, peut-on imposer des mécanismes de vérification de l’âge ou une suppression obligatoire aux plateformes de contenu pour adultes, mais pas des autres service)?
- Quel est le degré approprié de charge réglementaire à imposer aux entités réglementées?
- Tenir compte de la souplesse requise dans les obligations réglementaires.
- Dans quelle mesure doit-on rendre les obligations spécifiques et rigides? Quel est l’équilibre convenable entre la présentation de détails suffisants pour que les plateformes soient tenues d’agir avec vigueur, et la façon d’éviter de se montrer rigide en limitant les outils qu’ils utilisent et qui peuvent être uniques à leur service et leurs pratiques opérationnelles, afin d’atteindre les objectifs du cadre?
- Des normes efficaces de l’industrie verront-elles inévitablement le jour, au fil du temps, après l’imposition de ces obligations?
Détails de la page
- Date de modification :