Document de travail complémentaire : Obligations législatives et réglementaires

Qu’est-ce qu’un document de travail complémentaire?

Le Groupe consultatif d’experts sur la sécurité en ligne lancé par la ministre du Patrimoine canadien le 30 mars 2022 se réunit chaque semaine pour discuter des principaux éléments du cadre législatif et réglementaire de la sécurité en ligne. À mesure que les discussions ont lieu, d’autres questions émergent.

Le présent document de travail complémentaire renferme des questions de suivi pour recueillir des renseignements plus détaillés afin d’éclairer la conception d’un cadre législatif et réglementaire efficace et proportionnel. Ni les conseils du groupe ni les opinions préliminaires exprimées dans les documents de travail ne constituent les opinions définitives du ministère du Patrimoine canadien ou du gouvernement du Canada.

Objectif

Préciser les devoirs que les services réglementés devraient avoir et la façon dont ces devoirs devraient être prescriptifs.

Questions pour le suivi

  1. Qu'est-ce que le devoir d'agir de manière responsable?
    1. De manière générale, qu'implique-t-il ? Plus précisément, qu'inclut-il ?
    2. Comment le commissaire à la sécurité numérique saura-t-il si un service réglementé remplit son devoir d'agir de manière responsable ?
    3. Un service peut-il encore se conformer à son obligation d'agir de manière responsable s'il ne supprime pas les contenus flagrants ou « illégaux »? En d'autres termes, les obligations de supprimer le contenue font-elles nécessairement partie d'un devoir d'agir de manière responsable ?
  2. Comment un cadre réglementaire devrait-il :
    1. Instituer des obligations spéciales pour protéger les enfants ?
    2. Instituer des obligations spéciales pour protéger les droits des utilisateurs (par exemple, la liberté d'expression, la vie privée, l'égalité) ?
    3. Nommer un médiateur interne pour aider à soutenir les victimes ?
  3. Quel serait l'objectif d'un organe de recours externe et indépendant ?
    1. Évaluer si les services réglementés appliquent correctement leurs conditions de service ?
    2. Déterminer si le contenu doit être retiré ?
    3. Déterminer si le contenu est criminel (c.-à-d. s'il constitue une infraction au Code criminel) ?
    4. Déterminer si le contenu est illégal en vertu de ce régime réglementaire ?
  4. Un organe de recours devrait-il se voir accorder le pouvoir d'ordonner à un service de retirer du contenu ?
    1. En quoi l'instance de recours serait-elle différente du Conseil de recours numérique proposé par le gouvernement en 2021 ?
  5. Comment comprenez-vous un « système de surveillance générale » des services en ligne ?
    1. Serait-il problématique que le plan de sécurité numérique d'un service décrive un système de surveillance générale pour déterminer si ses mesures d'identification et d'atténuation structurelles fonctionnent dans le cadre de l'accomplissement de son devoir d'agir de manière responsable ?

Résumé de la discussion du Groupe consultatif d’experts

Spécificité des obligations

Le Groupe d’experts n’est pas d’accord sur la manière dont les obligations législatives et réglementaires devraient être spécifiques et prescriptives. Certains membres ont fait valoir que les objectifs d’un cadre ex ante sont mieux atteints par les moyens indirects de légiférer sur un large devoir d’agir de manière responsable. Ils ont expliqué que cette obligation obligerait les entités réglementées à identifier les risques posés par leur service et à les atténuer de façon appropriée. Ils ont souligné que cela n’imposerait aucune obligation spécifique qui régirait les politiques de contenu ou les procédures de modération de contenu. Les experts ont souligné que l’ambiguïté quant à ce que les services réglementés doivent faire pour respecter leurs obligations favoriserait la conformité, car les services seraient prudents. Ils ont suggéré qu’au lieu de se conformer au minimum, les services prendraient des mesures supplémentaires pour s’assurer qu’ils respectent leurs obligations. Les partisans de cette approche ont également souligné qu’un certain degré de flexibilité serait nécessaire lorsqu’il s’agit de définir des obligations réglementaires dans le domaine numérique, compte tenu de la nature rapidement changeante d’Internet. Ils ont expliqué que si la loi était trop détaillée, elle deviendrait rapidement obsolète. D’autres experts ont souligné qu’il serait nécessaire d’établir des attentes claires quant au comportement des services. Ils ont expliqué que si les services réglementés avaient la souplesse nécessaire pour déterminer ce que signifie « agir de façon responsable », ils sous-estimeraient inévitablement leur risque, ce qui leur permettrait d’adopter des mesures d’atténuation des risques moins onéreuses.

D’autres membres étaient d’un avis différent et réclamaient plus de détails et de spécificité. Certains experts ont suggéré qu‘une plus grande spécificité en ce qui concerne les obligations pourrait être développée à travers des codes de conduite contraignants ou non contraignants. Ces codes de conduite, expliquaient-ils, pourraient être élaborés par des groupes multipartites comprenant des services réglementés, la société civile, des groupes de défense des victimes et l’organisme de réglementation.

Obligations sur mesure

Le Groupe d’experts a examiné différentes façons d’adapter les obligations réglementaires. Certaines approches pourraient faire la distinction entre différents types de services, tandis que d’autres pourraient faire la distinction entre les types de contenu.

En ce qui concerne les services réglementés, de nombreux experts ont déclaré que le risque et la capacité doivent être pris en compte lorsqu’il s’agit d’imposer des obligations. Certains ont suggéré une approche matricielle selon laquelle les obligations imposées à un service dépendent du risque que représente ce qu’ils font, jumelée à leur capacité de faire quelque chose à ce sujet. Ils ont expliqué que la Loi européenne sur les services numériques suppose à tort que les plus grandes plates-formes poseront le plus de risques, ignorant des facteurs importants comme le type de contenu qu’une plateforme héberge ou son modèle d’entreprise. On a expliqué qu’un service devrait être tenu à une norme réglementaire plus élevée s’il héberge du contenu pour adultes, compte tenu du risque posé par ce contenu – même si le service lui-même serait considéré comme relativement petit dans la taille de sa base d’utilisateurs et/ou de ses sources de revenus. Les experts ont également expliqué que le cadre devrait avoir des attentes plus élevées envers une plateforme plus grande qu’envers une plateforme plus petite pour un niveau de risque donné.

De nombreux experts ont déclaré qu’il serait raisonnable d’interpréter l’obligation d’agir de manière responsable de manière renforcée lorsqu’il s’agit de plateformes ciblant des enfants ou des plateformes de contenu pour adultes. D’autres ont déclaré qu’il fallait imposer des obligations renforcées en fonction du contenu, avec peu de marge de manœuvre accordée aux plateformes concernant leurs obligations face au contenu d’exploitation sexuelle des enfants, le partage non consensuel d’images intimes et la diffusion en direct d’une attaque.

Programme général de contrôle

Certains experts ont souligné qu’il y avait un risque qu’une approche systémique puisse indirectement promouvoir un système de surveillance générale. Ils ont expliqué que chaque disposition législative doit être examinée de près pour s’assurer qu’il n’existe pas d’obligation générale de contrôle, car de telles obligations ont un impact négatif sur la liberté d’expression, les droits à l’égalité et les droits à la vie privée – en particulier pour les communautés qui méritent l’équité.

Organisme indépendant de recours pour les décisions relatives à la modération du contenu

Le Groupe d’experts n’est pas d’accord sur la question de savoir si un cadre législatif et réglementaire devrait prévoir un organe de recours externe indépendant pour les décisions relatives à la modération du contenu.

Un certain nombre d’experts ont souligné que les victimes ont besoin de la capacité de demander un recours pour les décisions de modération du contenu indépendamment des services réglementés. Ils ont expliqué qu’un recours externe est nécessaire, car même avec une approche ex ante fondée sur le risque, les services réglementés peuvent supprimer excessivement le contenu, phénomène qui a affecté de manière disproportionnée les groupes en quête d’équité. Ils ont indiqué que ces groupes n’avaient pas accès à des mécanismes de recours. Ils ont souligné que beaucoup ne se sentent pas à l’aise d’aller aux forces de l’ordre, et même quand ils le font, le contenu reste généralement en ligne. Ils ont aussi insisté sur le fait que demander aux utilisateurs de se présenter devant les tribunaux n’est pas réaliste, car cela prend du temps, coûte cher et force souvent les victimes à revivre leur traumatisme. Enfin, les partisans du modèle de recours indépendant ont souligné que les victimes continueraient d’être exploitées, sans un tel organe d’arbitrage. Ils ont souligné qu’il existe des services privés qui exploitent les victimes en promettant de faire supprimer le contenu nocif. Les experts ont souligné qu’il y avait un vide qui devait être comblé par un organisme de confiance capable d’aider les victimes qui cherchent à obtenir un recours.

D’autres experts ont expliqué qu’un tel système serait pour l’essentiel impraticable. Ils ont fait état de préoccupations concernant la liberté d’expression, la censure du gouvernement et l’aspect pratique d’un nombre inévitable de plaintes. Au lieu de cela, ils ont proposé un organisme de recours plus compatible avec un modèle ex ante selon lequel les utilisateurs pourraient déposer des plaintes concernant des problèmes systémiques de la façon dont un service réglementé fonctionne (par exemple, un manquement systémique à agir contre un type particulier de contenu, ou la preuve qu’un service se livre à des pratiques discriminatoires à l’égard d’un certain groupe), par opposition à des décisions spécifiques de modération du contenu.

D’une manière générale, cependant, la plupart des experts semblaient s’entendre sur la nécessité d’un organe d’arbitrage indépendant pour traiter des cas exceptionnels comme mesure de dernier recours. Les experts se sont largement mis d’accord sur la nécessité d’un processus progressif d’escalade des recours qui commence au niveau de la plateforme avec l’obligation d’agir de manière responsable. Ils ont expliqué que si l’obligation d’agir de manière responsable était bien appliquée, de nombreux litiges relatifs à la modération de contenu seraient résolus par des obligations ex ante afin de s’assurer que le matériel nocif ne soit pas partagé en premier lieu ou par un arbitrage efficace et efficient au niveau de la plateforme. Les experts ont expliqué qu’il y aurait inévitablement des erreurs dans l’obligation d’agir de manière responsable, et c’est lorsque ces erreurs se produiraient qu’un conseil de recours ex post entrerait en jeu.

Ombudsman indépendant

De nombreux experts ont souligné qu’un médiateur indépendant devrait également être mis en place pour évaluer la responsabilité de la plateforme au niveau du système. Certains experts ont proposé que ce médiateur soit une alternative à l’organe de recours, tandis que d’autres ont souligné que les deux organes seraient nécessaires – le médiateur offrirait un recours pour les questions systémiques concernant le comportement des plateformes, tandis que l’organe de recours pourrait traiter des cas individuels de modération du contenu.

Recours intégré dans les services réglementés

Les experts ont largement convergé vers l’idée d’exiger des services réglementés qu’ils aient deux types de mécanismes de recours internes : 1) processus d’appel pour les décisions de modération du contenu; et 2) un médiateur pour aider les victimes qui ont besoin de conseils concernant les contenus problématiques ou le comportement des plateformes.

De nombreux experts ont convenu que, dans le cadre de leur obligation d’agir de manière responsable, les services réglementés devraient être tenus d’avoir des mécanismes d’appel efficaces et conviviaux pour leurs utilisateurs. Ils ont souligné que certaines plateformes de médias sociaux n’ont actuellement aucun mécanisme de recours, ce qui est très problématique. Les experts ont souligné que les règlements devraient prescrire les critères de ces mécanismes internes d’appel, y compris le droit à l’examen humain, la convivialité et l’opportunité.

De nombreux experts ont également souligné qu’un médiateur pouvait aider les victimes en leur apprenant à repérer les contenus préjudiciables ou en les guidant dans les démarches pour porter plainte. Certains experts ont plaidé en faveur d’un médiateur qui puisse servir de porte-parole pour les enfants.

Détails de la page

Date de modification :