Document de travail complémentaire : Les entités assujetties à la réglementation

Qu’est-ce qu’un document de travail complémentaire?

Le Groupe consultatif d’experts sur la sécurité en ligne lancé par la ministre du Patrimoine canadien le 30 mars 2022 se réunit chaque semaine pour discuter des principaux éléments du cadre législatif et réglementaire de la sécurité en ligne. À mesure que les discussions ont lieu, d’autres questions émergent.

Le présent document de travail complémentaire renferme des questions de suivi pour recueillir des renseignements plus détaillés afin d’éclairer la conception d’un cadre législatif et réglementaire efficace et proportionnel. Ni les conseils du groupe ni les opinions préliminaires exprimées dans les documents de travail ne constituent les opinions définitives du ministère du Patrimoine canadien ou du gouvernement du Canada.

Objectif

  1. Préciser la portée des entités sous réglementation et leurs obligations

Questions pour le suivi

  1. Croyez-vous qu’un cadre législatif et réglementaire efficace et efficient pour traiter du contenu préjudiciable en ligne devrait englober les types de services suivants :
    1. Haut de la pile
      1. Plateformes de médias sociaux (par exemple, Facebook, Instagram, Twitter)
      2. Plateformes de partage de vidéos (par exemple, YouTube, TikTok)
        1. Y compris les sites de contenu pour adultes (par exemple, Pornhub)
      3. Moteurs de recherche (par exemple, Google)
      4. Forums en ligne (par exemple, Reddit, Discord)
      5. Marchés en ligne (par exemple, Facebook Marketplace, Craigslist)
      6. Applications de rencontres (par exemple, Tinder, Bumble)
      7. Services de blogage (par exemple, Tumblr)
      8. Autre site Web (par exemple, Airbnb, Uber)
      9. Messagerie privée (par exemple, WhatsApp, Facebook Messenger)
      10. Jeux vidéo en ligne
      11. Sites Web (e.g., CTV.ca)
      12. Magasins non marchands (par exemple, Ikea.com, ou un magasin vendant des souvenirs militaires historiques ou des jouets sexuels)
      13. Autres sites web qui présentent leur propre contenu sans interaction entre utilisateurs
    2. Services de la pile inférieure
      1. Fournisseurs d’hébergement Web (par exemple, Shopify ou Wordpress)
      2. Services infonuagiques (par exemple, Amazon Web Services et Microsoft Azure)
      3. Réseaux de livraison de contenu (par exemple, Amazon CloudFront, CloudFlare)
      4. Registres des noms de domaine (par exemple, Domain.com, Bluehost, Network Solutions)
      5. Fournisseurs de services Internet (par exemple, Bell, Rogers, Vidéotron)
  2. Pourquoi croyez-vous que les services que vous avez mentionnés ci-dessus devraient être réglementés en vertu d’un cadre de sécurité en ligne?
    1. Ces services présentent-ils un risque particulier pour les Canadiens?
    2. Devraient-ils avoir la responsabilité particulière d’assurer la sécurité des Canadiens en ligne?
    3. Les services Internet situés dans la pile inférieure seront-ils en mesure d’identifier le contenu préjudiciable? Autrement dit, pourront-ils déterminer si le contenu est susceptible d’entraîner des répercussions nocives?
  3. Y a-t-il des limites au type de services qui devraient être réglementés dans un cadre de sécurité en ligne? Si c’est le cas, quels sont-ils?
  4. Selon vous, quels types d’obligations devraient être imposés à ces services?
    1. Quelles mesures précises ces entités réglementées devraient-elles prendre pour s’acquitter de leur « devoir de diligence » global afin de prendre des mesures raisonnables pour s’assurer que leurs produits sont sécuritaires pour les Canadiens?

Résumé de la discussion du Groupe consultatif d’experts

Portée des entités saisies

Au cours de la discussion sur les entités assujetties à la réglementation, les experts ont convenu que la portée des entités à inclure dans le cadre législatif devrait être vaste. Bon nombre d’entre eux ont indiqué qu’une vaste portée d’application est une conséquence naturelle d’un modèle de réglementation fondé sur le devoir de diligence et fondé sur les systèmes. La plupart des experts ont fait remarquer que le champ d’application des entités réglementées devrait être vaste pour inclure toutes les entités qui communiquent en ligne et que les devoirs de diligence devraient être respectés, non seulement par les plateformes de médias sociaux, mais aussi par d’autres acteurs de la pile technologique, comme les services intermédiaires. Quelques-uns ont expliqué qu’il serait difficile d’affirmer que des obligations généralisées agissent de façon responsable sur certaines plateformes (par exemple, les entreprises de médias sociaux), mais pas d’autres qui fonctionnent au même niveau de la pile technologique (par exemple, Airbnb, les plateformes de jeux vidéo). Certains experts ont fait remarquer qu’une définition large aiderait à tenir compte de l’évolution et de l’émergence des technologies afin d’assurer la pérennité de la législation.

De nombreux experts ont mentionné qu’il est justifié d’envisager d’inclure plus largement certains services interactifs comme Airbnb et des plateformes de jeu ou des réseaux de diffusion de contenu comme Cloudflare dans la portée de la législation, mais quelques experts ont également indiqué qu’il pourrait être difficile de réglementer tous les différents types de modèles d’affaires que l’on trouve dans les plateformes. Par exemple, il peut être difficile de réglementer les plateformes qui reposent sur des communications verbales en direct, comme ClubHouse ou les plateformes de jeu. De nombreux experts ont fait remarquer qu’une définition large pourrait être la meilleure approche pour saisir ces différents types de modèles d’affaires. Quelques-uns ont ajouté qu’une portée plus large aiderait également à inclure les entités qui réussissent à recruter des extrémistes violents. Ces communautés s’adaptent rapidement et se tournent vers des services de jeux vidéo, des sites de partage de fichiers et des applications audio en direct comme ClubHouse.

Quelques experts ont parlé du concept de responsabilité intermédiaire. Ils ont souligné que l’établissement de règles claires en matière de responsabilité des intermédiaires pourrait, par exemple, créer un environnement réglementaire dans lequel un service réglementé ne serait pas responsable du contenu lui-même, mais pourrait être tenu responsable de ne pas faire un suivi suffisant du travail, modérer et gérer le contenu nuisible transmettant son service.

Quelques experts ont mis en garde contre une portée trop vaste. Ils ont souligné que la portée devrait être suffisamment large pour englober les entités qui sont susceptibles de causer un préjudice, tout en équilibrant les droits et libertés garantis par la Charte, y compris le droit à la vie privée. Certains ont souligné le défi des entités de réglementation qui facilitent l’hébergement et la distribution de contenu préjudiciable, particulièrement en ce qui a trait à l’exploitation sexuelle des enfants, et ils ont discuté de la façon dont cela pourrait inclure une réglementation plus poussée des entités dans la pile technologique (par exemple, les exploitants de serveurs) qui ne sont pas aussi intuitivement accessibles au public que les applications du haut de la pile comme les plateformes de médias sociaux.

Services de contenu pour adultes

Les membres discutent de la question de savoir si le contenu pour adultes et les services de contenu pour adultes devraient être réglementés ou traités différemment des autres contenus et services.

De nombreux experts ont suggéré que le contenu relatif à l’exploitation sexuelle des enfants devrait être traité de la même façon que les autres types de contenu et ne devrait pas constituer une catégorie distincte. Les experts ont mentionné qu’il est possible d’aborder ce type de contenu dans un cadre axé sur les risques. Ils ont indiqué qu’un traitement différent pourrait créer une pente glissante – de sorte que, dans la pratique, les services réglementés pousseraient d’autres catégories de contenu préjudiciable à être traitées de façon unique également.

Quelques experts ont mentionné que, bien qu’ils ne pensent pas que le contenu relatif à l’exploitation sexuelle des enfants devrait être traité séparément, il pourrait y avoir des obligations différentes en place ou des mécanismes utilisés pour prendre des mesures plus immédiates à son égard et à l’égard du contenu extrêmement préjudiciable. Par exemple, des mécanismes comme l’intelligence artificielle fonctionnent bien avec certains types de contenu, comme le contenu sur l’exploitation sexuelle des enfants, l’utilisation de hachages et de vastes bases de données pour permettre une action rapide. Certains experts ont fait remarquer que les mécanismes qui fonctionnent bien pour certains types de contenu pourraient ne pas fonctionner aussi bien avec d’autres types de contenu et qu’il pourrait y avoir d’autres façons de traiter ces types de contenu.

Approche du devoir de diligence et obligations des entités sous réglementation

La plupart des experts ont fait remarquer qu’une approche ex ante, « devoir de diligence », qui place la responsabilité et les obligations sur les plateformes serait la meilleure approche lorsqu’il s’agit de traiter les plateformes dont les modèles d’affaires varient.

Les membres discutent de l’idée de catégoriser les entités réglementées, de sorte que les obligations d’une entité réglementée puissent varier en fonction de sa taille, du volume de contenu ou du risque de préjudice. Les experts ont communiqué un large éventail de points de vue sur ce sujet.

Quelques-uns ont mis en garde contre l’utilisation de catégories. Certains ont mentionné que les catégories pourraient être utiles lorsqu’il s’agit de services de contenu pour adultes ou de contenu comme le contenu sur l’exploitation sexuelle des enfants, parce qu’il s’agit de contenu relativement clair, mais qu’il serait difficile d’avoir des catégories claires pour d’autres types de services et/ou de contenu. Il a également été souligné que de multiples catégories réglementaires pourraient donner lieu à des débats à savoir quelles entités qui appartiennent à quelles catégories, surtout si certaines entités se trouvent dans la zone grise entre les catégories, et miner l’efficacité du régime dans son ensemble.

D’autres ont indiqué que l’accent devrait d’abord être mis sur le risque, plutôt que sur l’organisation des services par catégorie ou par type. Ils ont expliqué qu’un cadre de réglementation du « devoir de diligence » ne serait pas, par définition, un cadre où certains services liés à Internet sont réglementés, mais d’autres non. Ils ont indiqué qu’en mettant l’accent sur l’évaluation des risques, on établirait des lignes de faille naturelles et des catégories de risque, de sorte que les catégories de risque faible, moyen et élevé feraient surface naturellement. Ils ont mentionné que, dans ce modèle, il incomberait aux plateformes de démontrer leur niveau de risque. Ils ont expliqué qu’il pourrait y avoir des obligations plus strictes pour les entités présentant le risque de préjudice le plus élevé, et un niveau d’obligation moins élevé pour les entités présentant le risque de préjudice le plus faible.

De nombreux experts ont mentionné que les entités réglementées devraient avoir le « devoir d’agir de façon responsable », ce qui comprend la détermination du degré de risque sur leurs plateformes. Ils ont souligné l’importance d’une définition claire, large et accessible des risques qui serait gérée selon un modèle prospectif de « devoir de diligence » ou de « devoir d’agir de façon responsable ».

Exécution des obligations des entités réglementées

Quelques experts ont souligné l’importance de réfléchir à la mise en œuvre. Ils ont souligné la nécessité d’élaborer une approche qui ne dépasse pas les limites pratiques de la capacité du gouvernement en matière de livraison et d’exécution.

Les experts ont déclaré qu’une approche systémique est particulièrement utile parce que les plateformes sont également la source de l’innovation dans la conception de solutions, en particulier pour réduire les méfaits et pour s’attaquer à certains des types de contenu plus légaux, mais horribles. Dans cette optique, la réglementation devrait viser à créer des mesures incitatives pour lutter contre le contenu nuisible sur leurs plateformes, tout en jumelant ces mesures incitatives à des mécanismes de responsabilisation.

Quelques experts ont mentionné qu’ils ne font pas confiance aux grandes plateformes pour faire ce qu’ils devraient faire dans le cadre d’un modèle de « devoir de diligence ». Ils ont fortement déconseillé l’autoréglementation ou l’autosurveillance parce que, à leur avis, cela ne fonctionne tout simplement pas. Ils ont souligné que les outils dont disposent déjà les grandes entreprises pour lutter contre le contenu préjudiciable sont insuffisants pour protéger les communautés minoritaires et vulnérables.

Détails de la page

Date de modification :