Résumé de la troisième séance : Obligations législatives et réglementaires

Le Groupe consultatif d’experts sur la sécurité en ligne a tenu sa troisième séance sur les obligations législatives et réglementaires, le 29 avril de 13 h à 16 h HAE. Tous les membres étaient présents. Des représentants gouvernementaux des ministères du Patrimoine canadien, de la Justice, d’Innovation, Sciences et Développement économique, de Sécurité publique et du Bureau du Conseil privé se sont joints au Groupe consultatif. Des représentants de la Gendarmerie royale du Canada étaient également présents.

Ce résumé donne un aperçu de la troisième séance. Conformément au mandat du Groupe consultatif, ces séances se déroulent selon les règles de Chatham House. En tant que tel, ce résumé n’attribue pas les opinions exprimées à un membre du groupe ou à un organisme en particulier. Il présente les points de vue exprimés au cours de la séance, signale les domaines d’accord, de désaccord et de discussion, et organise la discussion en catégories thématiques. Il ne doit pas être considéré comme une récitation textuelle de la discussion.

Le thème de la session était « Quelles sont les obligations législatives et réglementaires qui devraient être imposées aux entités réglementées pour réduire la quantité de contenu préjudiciable en ligne et gérer le risque qu’ils présentent? »

La feuille de travail de la séance comprenait trois objectifs :

  1. Explorer les avantages et les inconvénients des obligations réglementaires conçues autour d’un devoir de diligence;
  2. Déterminer le degré et la portée appropriés des obligations à imposer aux services en ligne réglementés; et
  3. Examiner le degré de flexibilité qu’il convient d’attacher aux obligations réglementaires.

Ce résumé rend compte des perspectives soulevées par rapport à ces objectifs et organise les points de discussion en fonction de thèmes spécifiquesNote de bas de page 1.

Thème A : Obligations imposées aux services réglementés

Spécificité des obligations

Le Groupe d’experts n’est pas d’accord sur le degré de spécificité et de prescription des obligations législatives et réglementaires.

Certains membres font valoir que les objectifs d’un cadre ex-ante sont mieux réalisés par le biais d’un moyen indirect consistant à légiférer sur une large obligation d’agir de manière responsable. Ils expliquent que cette obligation obligerait les entités réglementées à cerner les risques présentés par leur service et à les atténuer de manière appropriée. Ils soulignent qu’ils n’imposeraient aucune obligation spécifique régissant les politiques de contenu ou les procédures de modération du contenu. Les experts soulignent que l’ambiguïté concernant ce que les services réglementés doivent faire pour remplir leurs obligations favoriserait la conformité, car les services privilégieraient la prudence. Il a été suggéré qu’au lieu de se conformer au minimum, les services prendraient des mesures supplémentaires pour s’assurer qu’ils respectent leurs obligations. Les partisans de cette approche soulignent également qu’un certain degré de flexibilité serait nécessaire lorsqu’il s’agit de définir les obligations réglementaires dans la sphère numérique, compte tenu de la nature rapidement fluctuante de l’internet. Ils expliquent que si la législation était trop détaillée, elle deviendrait rapidement désuète. D’autres experts soulignent qu’il serait nécessaire d’établir des attentes claires quant au comportement des services. Ils expliquent que si les services réglementés ont la possibilité de déterminer ce que signifie « agir de manière responsable », ils sous-estimeront inévitablement leur risque, leur permettant ainsi d’adopter des mesures de réduction des risques moins onéreuses.

D’autres membres sont d’un avis différent, et plaident pour plus de détails et de spécificité. Certains experts suggèrent qu’une plus grande spécificité en ce qui a trait aux obligations pourrait être élaborée par le biais de codes de conduite contraignants ou non contraignants. Ces codes de conduite, expliquent-ils, pourraient être rédigés par des groupes multipartites impliquant les services réglementés, la société civile, les groupes de défense des victimes et le responsable de la réglementation.

Dans le même ordre d’idées, certains experts soulignent que les entreprises technologiques ne s’opposent pas à plus d’encadrement, et qu’il est courant que ces services invitent le gouvernement à clarifier leurs obligations lorsqu’ils répondent à des questions sur leurs pratiques.

Obligations en matière de transparence

De nombreux experts conviennent qu’il serait nécessaire d’imposer aux services réglementés de solides obligations de transparence concernant leurs pratiques de modération de contenu. Ils expliquent que ces renseignements devraient être publics et contenir suffisamment de données pour permettre au Commissaire à la sécurité numérique d’évaluer la conformité réglementaire. D’autres experts déclarent que les obligations de transparence devraient être associées à des garanties pour aider à protéger les renseignements commerciaux et autres données de nature délicate des services.

Certains experts soulignent que les services réglementés devraient également avoir des obligations de divulgation des données aux journalistes, aux chercheurs indépendants et aux universitaires qui souhaitent mener leurs propres recherches sur la modération du contenu des plateformes. Ils indiquent que ce flux de divulgation pourrait mettre en jeu une forme de certification pour les personnes autorisées à accéder aux données. D’autres experts soulignent que les organismes de la société civile et les groupes de défense des victimes, qui sont dans en ligne de front des efforts de suppression de contenu, ont également besoin d’accéder à ces données.

Les experts précisent le type de renseignements qui devraient être compris dans les obligations de transparence, y compris, mais sans s’y limiter : les données quantitatives et qualitatives concernant les utilisateurs des plateformes; les évaluations des risques; les mesures d’atténuation; le volume et le type de contenu illégal et préjudiciable; les procédures de modération du contenu et les résultats; les profils des modérateurs de contenu; les contenus illégaux présumés transmis aux forces de l’ordre; les algorithmes et les systèmes de recommandation; les plaintes et les appels; le temps de réponse; et les protocoles, les rapports d’incidents et les résultats liés à la protection des enfants.

Obligations sur mesure

Le groupe d’experts a discuté des différentes manières d’adapter les obligations réglementaires. Certaines approches pourraient faire une distinction entre les différents types de services, tandis que d’autres pourraient faire une distinction entre les types de contenu.

En ce qui concerne les services réglementés, de nombreux experts affirment que le risque et la capacité doivent être pris en compte lors de l’imposition d’obligations. Certains suggèrent une approche matricielle selon laquelle les obligations imposées à un service dépendent du risque posé par ce qu’il fait, associé à sa capacité à y remédier. Ils expliquent que la Législation sur les services numériques européenne partait à tort du principe que les plus grandes plateformes poseraient le plus de risques, en ignorant des facteurs importants comme le type de contenu qu’une plateforme héberge ou son modèle économique. Il est expliqué qu’un service devrait être tenu de respecter des normes réglementaires plus strictes s’il héberge des contenus pour adultes, compte tenu du risque présenté par ces contenus, même si le service lui-même est considéré comme relativement petit par la taille de sa base d’utilisateurs et/ou de ses flux de recettes. Les experts expliquent également que, pour un niveau de risque donné, le cadre réglementaire devrait exiger davantage d’une grande plateforme que d’une petite.

Plusieurs experts défendent les besoins des services plus petits ou en phase de démarrage. Ils font valoir qu’en adaptant les obligations réglementaires à la taille ou à la capacité du service, on s’assurerait qu’il a les moyens de se conformer à ses obligations, et on veillerait à ce que les plateformes plus petites ou en phase de démarrage ne soient pas submergées. Ils expliquent que le cadre réglementaire pourrait exclure les petits acteurs et consolider le pouvoir entre les mains des plus grandes plateformes si les obligations réglementaires étaient appliquées à tous les services, indépendamment de leur taille ou de leur capacité, sans tenir compte de la proportionnalité. D’autres experts mettent en garde contre l’imposition d’une charge réglementaire plus légère aux petits services. Ils insistent sur le fait que les petites plateformes sont mûres pour l’exploitation par des acteurs menaçants, ce qui fait en sorte que leurs services sont parmi les plus risqués.

De nombreux experts affirment qu’il serait raisonnable d’interpréter l’obligation d’agir de manière responsable de façon plus stricte lorsqu’il s’agit de plateformes ciblant les enfants ou les adultes. D’autres affirment que les obligations renforcées devraient être imposées en fonction du contenu, avec une faible marge de manœuvre accordée aux plateformes à l’égard de leurs devoirs en ce qui a trait au contenu d’exploitation sexuelle des enfants, au partage non consensuel d’images intimes et à la diffusion en direct d’une attaque.

Droits de la personne

Certains experts réaffirment que la réglementation de cet espace comporte des risques constitutionnels réels, même dans le cadre d’une approche ex-ante fondée sur le risque. Ils soulignent que les droits des utilisateurs dépendront du type de contenu géré. Par exemple, expliquent-ils, les répercussions de la liberté d’expression pour du contenu illégal peuvent ne pas être les mêmes que pour un contenu légal mais préjudiciable. C’est pourquoi ces experts plaident en faveur d’une approche réglementaire à deux niveaux reconnaissant cette distinction fondamentale, selon laquelle les obligations « plus dures » seraient réservées au contenu illégal, tandis que des obligations « plus souples » seraient mises en œuvre pour le contenu légal mais préjudiciable.

En ce qui concerne les outils « plus durs », les experts expliquent qu’il devrait y avoir une obligation de notification et de retrait fondée sur des plaintes pour les contenus liés à l’exploitation sexuelle des enfants et le partage non consensuel d’images intimes, car la nature de ce contenu justifie leur retrait avec un minimum d’obstacles pour les victimes. En ce qui concerne les outils « plus souples », certains experts suggèrent que les contrôles des utilisateurs pourraient être un outil approprié pour traiter le contenu légal mais préjudiciable. Ces experts expliquent que les outils qui responsabilisent les utilisateurs de cette manière permettraient de traiter le contenu préjudiciable tout en respectant les droits fondamentaux.

Certains experts soulignent qu’il est facile, pour une approche basée sur le risque, d’accorder une attention minimale aux droits des utilisateurs. Ils affirment que si les services réglementés ne sont pas informés de la manière de se conformer à leur obligation d’agir de manière responsable, les systèmes qu’ils mettent en place risquent d’être rudimentaires et d’aboutir à une surréglementation grossière de l’espace au nom de la « conformité ». Ces experts soulignent que les obligations doivent clairement contraindre les entités réglementées à évaluer les risques que leurs services font peser sur les droits des utilisateurs, à atténuer tout effet néfaste et à faire preuve de transparence tant sur les risques que sur les mesures d’atténuation.

Certains experts mentionnent qu’il existe un risque qu’une approche systémique puisse indirectement promouvoir un système de surveillance générale. Ils expliquent que chaque disposition législative doit être examinée minutieusement pour s’assurer qu’il n’existe pas d’obligation de surveillance générale, car de telles obligations ont un impact négatif sur la liberté d’expression, le droit à l’égalité et le droit à la vie privée – en particulier pour les communautés méritant l’équité.

Enfin, certains experts suggèrent de mettre en place des mécanismes de vérification de l’âge des utilisateurs. D’autres affirment que le fait de rendre obligatoire la vérification de l’âge pour l’accès à un certain contenu en ligne serait pratiquement impossible à mettre en œuvre sans effets disproportionnés sur la liberté d’expression.

Données et vie privée

Certains experts soulignent que lorsqu’on parle des droits des utilisateurs, il est difficile de dissocier les questions de modération du contenu d’autres questions telles que les données, la vie privée et la concurrence. Ils se demandent si les entités réglementées ne devraient pas également être obligées d’évaluer le risque posé par leurs services en ce qui concerne la gestion de leurs renseignements et de leurs données. Il est suggéré que le gouvernement se tourne vers la Charte numérique comme base de travail.

Thème B : Objectifs du cadre

Certains experts se demandent si l’objectif de réduction du contenu préjudiciable en ligne était approprié pour l’ensemble du cadre.

Ils soulignent qu’il serait difficile de mesurer la réduction de l’exposition aux contenus préjudiciables, car il n’existe pas de base de référence à partir de laquelle procéder. Certains experts soulignent l’importance des obligations de transparence pour garantir qu’une mesure quantitative de l’exposition au contenu préjudiciable puisse raisonnablement être mesurée à l’avenir. D’autres suggèrent des objectifs de rechange visant à obliger les plateformes à agir de manière responsable et à gérer leurs risques, à assurer la transparence des plateformes, à responsabiliser les services et à établir des normes de base pour la modération du contenu au Canada.

Certains experts soulignent que la réglementation dans cet espace a tendance à mettre en contrepoids l’objectif de suppression du contenu préjudiciable et le respect des droits fondamentaux des utilisateurs. En réalité, expliquent-ils, le cadre réglementaire contribuerait avant tout au respect et à la promotion des droits des utilisateurs. Les experts soulignent que la question d’être exposé à moins de contenu préjudiciable est équivalente à l’objectif de faire progresser les droits fondamentaux des utilisateurs, de sorte qu’ils puissent participer plus librement au discours en ligne. Ces experts expliquent que le cadre ne chercherait pas à réduire les effets négatifs sur ces droits, mais qu’il s’efforcerait plutôt de les protéger. Ils suggèrent que la réduction du contenu préjudiciable en ligne et le respect des droits des utilisateurs soient des co-objectifs auxquels on accorde le même degré d’importance. Les experts affirment que cette approche avait été adoptée par la Législation sur les services numériques de l’Union européenne qui stipule que l’un de ses principaux objectifs est de garantir les droits des utilisateurs.

Thème C : Recours des utilisateurs et autres aides aux victimes

Organisme de recours indépendant pour les décisions de modération du contenu

Le Groupe d’experts n’est pas d’accord sur la question de savoir si un cadre législatif et réglementaire devait prévoir un organisme de recours externe et indépendant pour les décisions de modération du contenu.

Un certain nombre d’experts soulignent que les victimes doivent pouvoir exercer un recours contre les décisions de modération de contenu, indépendamment des services réglementés. Ils expliquent qu’un recours externe est nécessaire, car même avec une approche ex-ante basée sur le risque, les services réglementés peuvent supprimer trop de contenu, un phénomène qui a entraîné des répercussions de manière disproportionnée sur les groupes en quête d’équité. Ils indiquent que ces groupes n’ont pas accès aux mécanismes de recours. Ils soulignent que bon nombre d’entre eux ne se sentent pas à l’aise de s’adresser aux forces de l’ordre, et même lorsqu’ils le font, le contenu reste généralement en ligne. Ils insistent également sur le fait qu’il n’est pas réaliste de demander aux utilisateurs de passer par les tribunaux, car cela prend du temps, coûte cher et oblige souvent les victimes à revivre leur traumatisme. Enfin, les partisans du modèle de recours indépendant soulignent que les victimes continueraient à être exploitées en l’absence d’un tel organisme décisionnel. Ils font remarquer qu’il existe des services privés qui exploitent les victimes en promettant de faire disparaître le contenu préjudiciable. Les experts soulignent qu’il existe un vide qui doit être comblé par un organisme digne de confiance capable de soutenir les victimes qui cherchent un recours.

D’autres experts expliquent qu’un tel système serait essentiellement inapplicable. Ils citent des préoccupations relatives à la liberté d’expression, à la censure gouvernementale et à l’aspect pratique d’un volume inévitablement élevé de plaintes. Au lieu de cela, ils proposent un organisme de recours plus compatible avec un modèle ex-ante auprès duquel les utilisateurs pourraient déposer des plaintes concernant des problèmes systémiques liés au fonctionnement d’un service réglementé (p. ex., une incapacité systémique à agir contre un type spécifique de contenu, ou des preuves qu’un service se livre à des pratiques discriminatoires à l’encontre d’un certain groupe), par rapport à des décisions spécifiques de modération du contenu.

Dans l’ensemble, cependant, la plupart des experts semblent convenir de la nécessité d’un organisme décisionnel indépendant pour traiter les cas exceptionnels en dernier recours. Les experts convergent largement sur la nécessité d’un processus d’escalade progressive pour les recours, qui commence au niveau de la plateforme avec l’obligation d’agir de manière responsable. Ils expliquent que si l’obligation d’agir de manière responsable est bien mise en œuvre, de nombreux litiges en matière de modération du contenu seront résolus soit par des obligations ex-ante visant à garantir que le matériel nuisible ne soit pas partagé en premier lieu, soit par un arbitrage efficace et effectif au niveau de la plateforme. Les experts expliquent qu’il y aurait inévitablement des erreurs en ce qui a trait au devoir d’agir de manière responsable et c’est lorsque ces erreurs se produisent qu’un conseil de recours ex post entrerait en jeu. De nombreux experts ont également convenu que le mandat de l’organe de recours pourrait être limité en termes de contenu dont l’organe est saisie, ces derniers proposant que sont mandat s'applique à un sous-ensemble de contenus illégaux, tels que les contenus relatifs à l'exploitation sexuelle des enfants et le partage non consensuel d'images intimes.

Enfin, certains experts se sont demandé si un tel organe de recours devait uniquement agir sur le contenu, ou s'il devait également remplir une fonction supplémentaire de résolution des litiges.

Caractéristiques d’une instance de recours indépendante efficace

De nombreux experts affirment que des mesures de protection seraient nécessaires pour atténuer le volume élevé de plaintes adressées à l’organisme de recours indépendant. Certains suggèrent que la législation prévoie des facteurs à respecter avant de déposer une plainte, comme le fait de passer d’abord par le processus de recours interne d’un service. D’autres soulignent qu’il faudrait des mesures concrètes pour éliminer les plaintes frivoles. Enfin, certains experts soulignent qu’un recours indépendant ne devrait être possible que pour les litiges concernant la modération du contenu illégal. Sur ce dernier point, certains affirment que le fait de circonscrire ainsi les outils de recours externes contribuerait non seulement à résoudre le problème du volume, mais reconnaîtrait aussi à juste titre qu’en tant qu’entités privées, les entreprises ont le droit de choisir d’héberger du contenu légal mais préjudiciable.

Certains experts soulignent qu’il serait nécessaire d’établir ce que l’on attend d’un conseil de recours. Ils posent la question suivante : s’agit-il d’évaluer si les services réglementés appliquent correctement leurs propres conditions de service? Ou faut-il déterminer si le contenu est illégal? Ils expliquent que cette dernière tâche est notoirement difficile, même pour les tribunaux, et qu’elle nécessiterait un organisme judiciaire ou administratif habilité à prendre de telles décisions. D’autres se demandent si cet organisme aurait le pouvoir d’ordonner le retrait et le rétablissement d’un contenu.

De nombreux experts soulignent qu’un organisme de recours indépendant ne serait efficace que s’il était accessible et convivial. Ils font valoir que de nombreuses victimes confrontées à du contenu préjudiciable s’inquiètent pour leur vie privée et leur sécurité. Ils expliquent que la procédure de plainte ne devait pas être onéreuse et qu’un organisme de recours ne serait efficace que si les utilisateurs n’étaient pas intimidés par le système. Ils soulignent que les utilisateurs devraient être en mesure de se représenter eux-mêmes, de communiquer ce qu’ils ont vécu et de faire des représentations d’une manière plus informelle par rapport aux règles strictes habituelles concernant les preuves nécessaires dans un tribunal. Dans un même temps, ils affirment que l’instance de recours doit signaler que l’affaire est prise au sérieux et ne doit pas être informelle au point de saper la gravité du contenu préjudiciable contesté.

Plusieurs experts affirment que l’organisme de recours devrait être indépendant du responsable de la réglementation. Ils soulignent que le gouvernement ne peut pas être perçu comme établissant des règles sur ce qui peut ou ne peut pas être affiché sur les services en ligne. Ils insistent également sur la séparation des fonctions d’enquête et d’application du Commissaire à la sécurité numérique et des fonctions décisionnelles d’un organisme de recours.

Enfin, certains experts soulignent que pour être efficace, un organisme de recours indépendant devrait disposer de ressources suffisantes, rendre des décisions en temps utile et être composé d’experts en la matière qui connaissent le domaine de la modération du contenu.

Ombudsman indépendant

De nombreux experts soulignent qu’un ombudsman indépendant devrait également être mis en place pour évaluer la responsabilité des plateformes au niveau du système. Certains experts proposent cet ombudsman comme solution de rechange à l’organisme de recours, tandis que d’autres soulignent que les deux organismes seraient nécessaires – l’ombudsman fournirait un recours pour les questions systémiques relatives au comportement de la plateforme, tandis que l’organisme de recours pourrait traiter les cas individuels de modération du contenu.

Recours intégré dans les services réglementés

Les experts convergent largement vers l’idée d’exiger que les services réglementés disposent de deux types de mécanismes de recours internes : 1) des procédures d’appel pour les décisions de modération du contenu; et 2) un ombudsman pour aider les victimes qui ont besoin de conseils concernant un contenu problématique ou le comportement de la plateforme.

De nombreux experts conviennent que, dans le cadre de leur devoir d’agir de manière responsable, les services réglementés devraient être tenus de disposer de mécanismes de recours efficaces, efficients et conviviaux pour leurs utilisateurs. Ils soulignent que certaines plateformes de médias sociaux ne disposent actuellement d’aucun mécanisme de recours, ce qui est très problématique. Les experts soulignent que les réglementations devraient prescrire les critères de ces mécanismes de recours internes, notamment le droit à un examen humain, la convivialité et la rapidité.

De nombreux experts soulignent également qu’un ombudsman pourrait aider les victimes en leur apprenant à signaler le contenu préjudiciable ou en les guidant dans les démarches à suivre pour déposer une plainte. Certains experts plaident en faveur d’un ombudsman pouvant être le porte-parole des enfants.

Soutien aux enfants

Certains experts soulignent l’importance d’obliger les entités réglementées à fournir un soutien spécial aux enfants, notamment des options de signalement faciles et des termes qui ont un sens pour eux (c.-à-d., un langage compréhensible). Ils font également valoir que les déclarations des enfants devraient être automatiquement classées par ordre de priorité et qu’il conviendrait de réfléchir à la manière de faciliter les déclarations des parents et d’autres personnes au nom de l’enfant.

Thème D : Mécanismes d’application

De nombreux experts s’interrogent sur ce qu’il adviendrait des services réglementés s’ils ne respectaient pas les normes de soins qui leur sont imposées. Ils soulignent que les services ne devraient pas être tenus pour responsables en cas de non-conformité, mais devraient plutôt être obligés de payer une amende. Certains font valoir que les utilisateurs ne devraient pas être autorisés à poursuivre les entreprises en cas de manquement à leur devoir d’agir de manière responsable. D’autres experts mentionnent la responsabilité des cadres supérieurs comme un mécanisme d’application efficace. Dans l’ensemble, la plupart des experts soulignent que le Commissaire à la sécurité numérique devrait avoir la possibilité d’intervenir de manière souple et proportionnée en fonction de l’ampleur et de la gravité de la situation.

Certains experts soulignent que la pression publique est une incitation efficace à un comportement conforme. Ils suggèrent que les services réglementés soient obligés d’inclure une déclaration sur leurs plateformes indiquant aux utilisateurs que le service est soumis à une obligation d’agir de manière responsable, et que les utilisateurs disposent de mécanismes de recours s’ils estiment que le service ne respecte pas cette obligation. Les experts soulignent qu’un tel rappel exercerait probablement une pression publique sur les services pour qu’ils se conforment aux règles et aurait l’avantage supplémentaire de favoriser un environnement dans lequel les utilisateurs se sentent habilités à réagir au contenu préjudiciable et à utiliser les mécanismes de recours à leur disposition.

Plusieurs experts soulignent qu’un moyen efficace d’encourager l’élaboration de normes et de standards serait d’encourager le partenariat et la collaboration entre les entités réglementées et le Commissaire à la sécurité numérique, grâce auxquels les parties pourraient discuter des meilleures pratiques, des défis et des solutions innovantes. Ils insistent sur le fait que la clé de la réglementation dans ce domaine est de réfléchir à la meilleure façon de créer des « courses vers le sommet » par lesquelles la réglementation incite les services à prendre leurs responsabilités toujours plus au sérieux au fil du temps.

Enfin, certains experts se demandent si le Commissaire à la sécurité numérique disposerait d’un personnel suffisant pour faire respecter la conformité. Ils se demandent si l’autorité de réglementation serait en mesure de trouver des personnes à employer possédant les compétences techniques requises. Les experts expliquent que ces détails sont importants, car même le cadre réglementaire le plus complet pourrait être sapé par un manque d’application.

Thème E : Consultation externe

Les experts conviennent de consacrer du temps au cours du prochain atelier pour définir les attentes et un plan en ce qui a trait à une consultation externe supplémentaire sur un cadre législatif et réglementaire visant à lutter contre le contenu préjudiciable en ligne.

Les prochaines étapes

La prochaine session du Groupe consultatif d’experts aura lieu le vendredi 6 mai de 13 h à 16 h (HAE). Les experts discuteront de la feuille de travail sur les pouvoirs réglementaires lors de cette séance.

Détails de la page

Date de modification :