Ce que nous avons entendu : Approche proposée du gouvernement pour s’attaquer au contenu préjudiciable en ligne

Sur cette page

Principaux points à retenir et sommaire

Le 29 juillet 2021, le gouvernement du Canada a publié un projet de loi et de règlement visant à contrer le contenu préjudiciable en ligne aux fins de consultation sur son site Web. Les parties intéressées ont été invitées à soumettre des commentaires écrits au gouvernement par courriel.

Les commentaires ont tous reconnu la proposition comme une base sur laquelle le gouvernement pourrait s’appuyer, et ont cerné plusieurs sujets de préoccupation.

La majorité des répondants sont favorables à un cadre législatif et réglementaire, dirigé par le gouvernement fédéral, pour lutter contre les contenus préjudiciables en ligne.

Plus précisément, les répondants appuyaient en grande partie les éléments suivants de l’approche proposée :

Toutefois, les répondants ont identifié un certain nombre de préoccupations générales, notamment des préoccupations liées à la liberté d'expression, au droit à la vie privée, à l'impact de la proposition sur certains groupes marginalisés, et plus généralement, le respect de la Charte canadienne des droits et libertés.

Ces préoccupations générales étaient liées à un certain nombre d'éléments spécifiques de la proposition. Les répondants ont notamment demandé au gouvernement de reformuler et de reconsidérer son approche à l’égard des éléments suivants :

Bien que les répondants aient reconnu que cette initiative est une priorité, bon nombre d’entre eux ont indiqué que les éléments clés de la proposition doivent être réexaminés. Certaines parties ont expliqué qu’elles auraient besoin de plus de précision pour fournir une rétroaction éclairée et qu’un manque de détails sur les définitions entraînerait de l’incertitude et de l’imprévisibilité pour les intervenants.

Les répondants ont signalé la nécessité de procéder avec prudence. Beaucoup ont insisté sur le fait que l’approche adoptée par le Canada pour s’attaquer aux préjudices en ligne servirait de point de repère pour d’autres gouvernements agissant dans le même espace et contribuerait considérablement à l’établissement de normes internationales.

Contexte et introduction

Contenu préjudiciable en ligne : proposition législative et réglementaire

La proposition publiée aux fins de consultation le 29 juillet 2021 présentait un cadre législatif et réglementaire détaillé afin de solliciter les points de vue des Canadiens.

Les moteurs stratégiques du gouvernement du Canada déterminent le rythme auquel le contenu préjudiciable se propage en ligne, les répercussions négatives qu’il a sur les Canadiens et les institutions canadiennes, et le fait que les Canadiens sont de plus en plus nombreux à croire qu’il faut faire davantage pour lutter contre le contenu préjudiciable en ligne. Des pays alliés comme le Royaume-Uni, l’Australie, la France et l’Allemagne prennent également des mesures.

La proposition de juillet 2021 a été publiée par les ministres du Patrimoine canadien, de la Justice et de la Sécurité publique. On envisageait la création de règles portant sur la façon dont les plateformes de médias sociaux et d’autres services en ligne doivent contrer le contenu préjudiciable. La proposition énonçait ce qui suit :

Le gouvernement a demandé aux Canadiens de lui soumettre par écrit des présentations fondées sur deux documents :

  1. Un guide de discussion résumant l’approche globale (annexe A); et
  2. Un document technique contenant les éléments d’une proposition législative (annexe B).

La consultation publique a pris fin le 25 septembre 2021. Elle a sollicité 422 réponses uniques et 8 796 présentations provenant de campagnes ouvertes. Sur les 422 réponses uniques, 350 provenaient de particuliers, 39 d’organisations de la société civile et d’autres organisations, 19 de l’industrie, 13 d’universitaires et 2 d’organisations gouvernementales ou adjacentes.

Le gouvernement a conçu cette consultation pour permettre aux intervenants et à l’industrie de soumettre des renseignements commerciaux en toute confidentialité et pour permettre aux groupes de victimes, aux collectivités dignes d’équité ou à d’autres parties de raconter leur expérience en lien avec du contenu préjudiciable en ligne de manière privée. Par conséquent, les observations n’ont pas été rendues publiques directement. Bien que certaines parties aient elles-mêmes décidé de mettre leurs observations à la disposition du public, le présent rapport a pour but de donner un aperçu des points de vue présentés au cours de la consultation tout en protégeant l’identité des personnes.

Objet du rapport

Le présent rapport donne un aperçu des commentaires soumis dans le cadre de la consultation. Bien qu'il fasse état de tous les points de vue exprimés et de toutes les perspectives soumises sur le cadre législatif et réglementaire proposé, il ne doit pas être considéré comme une récitation mot à mot de toutes les soumissions à la consultation.

Il est organisé en trois sections, en fonction du volume de commentaires reçus sur chaque élément. La structure du rapport n’indique pas la gravité ou l’importance des éléments discutés. La première section présente plutôt des observations sur les éléments du cadre sur lesquels la plupart des répondants se sont concentrés et dont ils ont souvent discuté en détail. La deuxième section décrit la rétroaction reçue sur les éléments commentés par de nombreux répondants, mais pas nécessairement la rétroaction la plus fréquemment mentionnée. Enfin, la troisième section passe en revue des éléments que seulement quelques répondants ont mentionnés.Note de bas de page 2

Points saillants de la consultation publique

Presque tous les répondants ont indiqué que la réglementation gouvernementale a un rôle à jouer dans la lutte contre les préjudices en ligne et l’assurance de la sécurité des Canadiens en ligne. Au-delà de cela, il y a eu un mélange de réactions positives et négatives, bien qu’il y ait eu une perspective principalement critique de la part de la société civile, du milieu universitaire et de l’industrie sur le processus de consultation et la conception et la substance du cadre lui-même.

Les répondants ont critiqué la conception et le déroulement de la consultation. Certains ont indiqué que le cadre était déjà entièrement conçu, malgré la demande de rétroaction du gouvernement. Certains intervenants ont mentionné que le processus de consultation s’est déroulé à un moment inopportun pendant une période électorale fédérale et la pandémie, ou que le délai de consultation était trop court, ce qui fait qu’il est difficile de présenter des commentaires significatifs et exhaustifs. D’autres ont souligné qu’il n’y avait pas eu de consultation et de mobilisation significatives sur la conception et les éléments de la proposition au cours de la période précédant sa publication.

En ce qui concerne le fond de la proposition, même si de nombreuses personnes et organisations ont accueilli favorablement l’initiative du gouvernement, seul un petit nombre de présentations de ces intervenants appuyaient totalement ou en grande partie le cadre dans son ensemble. Compte tenu de la diversité des répondants et de leurs points de vue uniques, les commentaires reçus étaient très variés. Cependant, plusieurs points communs sont ressortis. Ceux-ci sont classés par volume dans les sections ci-dessous. Le premier décrit les questions les plus importantes soulevées. Le deuxième décrit des éléments qui ont suscité un intérêt modéré. Le troisième comprend des aspects plus précis de la proposition, soulevés par quelques répondants seulement.

1 : Questions importantes soulevées

Périmètre des entités réglementées

La proposition s’appliquait aux fournisseurs de service de communication en ligne (FSCL). Le concept d’un FSCL englobait les principales plateformes et excluait les produits et les services qui ne seraient pas admissibles, comme les applications d’activité physique ou les sites Web de location pour des vacances. Il exempte également les communications privées, les fournisseurs de services de télécommunications, certains opérateurs techniques et les services chiffrés.

Définition d’un fournisseur de services de communication en ligne (FSCL)

De nombreux répondants ont indiqué que la définition d’un FSCL était trop large et ont préconisé une plus grande clarté de la part du gouvernement pour ce qui est de définir les services qui seraient visés par le cadre de réglementation. Certains répondants ont fait remarquer que la proposition devrait mettre l’accent sur les services qui présentent le plus grand risque d’exposer les Canadiens à du contenu préjudiciable, comme les réseaux de médias sociaux et les plateformes de partage de vidéos, alors que d’autres ont souligné qu’une orientation plus étroite laisserait de côté un ensemble important d’intermédiaires. En plus de la définition d’un FSCL, les répondants ont critiqué le pouvoir accordé au gouverneur en conseil de définir la portée de certains services au moyen de la réglementation. Certains ont affirmé qu’il n’était pas clair quels services seraient inclus dans le cadre et quel serait le seuil d’inclusion. De même, d’autres intervenants ont critiqué le fait que le cadre proposé comprenne un large éventail d’entités sans fournir une liste claire de facteurs déterminants ou limitatifs. Les répondants se sont demandé si les services comme les sites Web personnels, les blogues ou les babillards électroniques seraient visés par la réglementation. Certains ont recommandé que le gouvernement introduise des critères pour catégoriser les entités, qui seraient ensuite utilisés pour déterminer si celles-ci relèvent de la portée législative.

De nombreux répondants ont déclaré que la définition d’un FSCL ne tenait pas compte de l’importante disparité de capacité entre les grandes et les petites entreprises, notant que la réglementation pourrait imposer un fardeau financier et en matière de ressources humaines aux petites entreprises qui doivent se conformer aux exigences connexes. Ces répondants ont expliqué que l’absence d’application nuancée à l’égard des nouveaux fournisseurs et des fournisseurs plus petits pourrait entraîner des conséquences inutiles et imprévues sur le marché. On souhaitait vivement que les petites plateformes soient exemptées du cadre. Les répondants ont demandé au gouvernement de mettre en œuvre des seuils de taille de plateforme pour éviter de créer un cadre dans lequel seuls les titulaires bien établis peuvent respecter leurs obligations.

Un petit sous-ensemble de répondants a demandé l’élargissement de la portée des entités réglementées pour inclure d’autres types de services en ligne qui jouent un rôle dans l’accessibilité au contenu illégal par les utilisateurs. Quelques-uns ont demandé que le cadre s’applique à tous les fournisseurs de services Internet qui participent à rendre le contenu accessible aux utilisateurs finaux. Ces répondants étaient d’avis que si toutes les entités de la chaîne de communication n’étaient pas liées par les mêmes modalités, il y aurait une lacune dans la surveillance réglementaire du contenu préjudiciable qui pourrait être exploité.

Exclusion des fournisseurs de services de télécommunications, de communications privées et cryptés

Certains intervenants ont demandé plus de clarté sur ce qui constitue une communication privée. Par exemple, ils se demandaient si l’exemption s’appliquerait aux grands groupes de clavardage.

On a appuyé l’exclusion des services de communications et de télécommunications privés et cryptés de la proposition. Les répondants ont indiqué que de telles exclusions seraient nécessaires pour éviter les conséquences imprévues qui en découleraient si des obligations comme la surveillance proactive, le filtrage automatisé et les exigences de retrait s’appliquaient à ces services. Par exemple, ils ont expliqué que le fait d’exiger de la part des fournisseurs de services infonuagiques interentreprises la surveillance et le filtrage de façon proactive du contenu préjudiciable des réseaux de leurs clients présenterait de sérieux risques en matière de protection de la vie privée et de sécurité. Ces fournisseurs ont des clients dans les secteurs des soins de santé, des services bancaires et de l’énergie. Compte tenu de la sensibilité des données de leurs clients, les fournisseurs conçoivent leurs systèmes de manière à avoir une visibilité limitée, le cas échéant, sur les données qu’ils hébergent pour le compte des clients.

Cependant, quelques répondants ont soutenu que la loi devrait englober, du moins en partie, les communications privées et les services chiffrés. Ces répondants ont fait valoir que ces services devraient au moins être assujettis à des exigences en matière d’avis aux utilisateurs et de rapports de transparence. Ils ont affirmé que l’élargissement de la portée des entités réglementées de cette façon permettrait de mieux réduire les préjudices et d’atténuer le risque d’incitation pour les entreprises à créer des plateformes plus fermées ou privées comme moyen de contourner les obligations.

Types et définitions de contenu préjudiciable

La proposition visait cinq types de contenu préjudiciable, soit le contenu terroriste, le contenu incitant à la violence, le discours haineux, le partage non consensuel d’images intimes et le contenu d’exploitation sexuelle des enfants. Bien que les définitions proposées s’inspirent des lois existantes, notamment les infractions actuelles et les définitions du Code criminel, elles auraient été modifiées aux fins d’adaptation au contexte réglementaire.

Sélection de cinq types de contenu préjudiciable

Certains répondants ont affirmé que les cinq catégories de contenu préjudiciable ont été choisies de façon appropriée, car chacune d’entre elles présente un risque imminent de préjudice pour les personnes exposées à ce contenu et le contenu est interdit en vertu du Code criminel. Cependant, la plupart des répondants ont critiqué le fait que le cadre comprenne des types de contenu trop diversifiés pour être traités dans le même cadre. Ils craignaient que le Conseil de recours ne puisse pas être en mesure de juger d’un contenu aussi varié, malgré la compétence de ses membres. Les répondants ont affirmé que le cadre proposé ne permettrait pas de s’acquitter de la tâche sérieuse de modération du contenu. Certains ont fait remarquer qu’une approche universelle serait peu susceptible de tenir compte des nuances de chaque type de contenu. De nombreux répondants ont déclaré que les cinq types de contenu étaient très différents et que chacun nécessitait une approche spécialisée, ou peut-être un cadre de réglementation entièrement distinct.

De nombreux répondants ont apprécié le fait que la proposition mette l’accent sur les domaines de la liberté d’expression et de la conduite déjà définis dans le droit national. Certains ont également salué l’harmonisation de la définition de discours haineux avec la jurisprudence de la Cour suprême du Canada, affirmant que cette harmonisation a fourni une mesure fiable et cohérente pour définir le contenu haineux en ligne au Canada. Certains intervenants étaient d’avis que la proposition devrait se limiter à des catégories clairement définies de contenu illégal au Canada. D’autres ont demandé pourquoi un nouveau cadre de réglementation serait nécessaire pour aborder ce type de contenu préjudiciable, étant donné qu’il s’agit déjà d’infractions au Code criminel du Canada.

Certains répondants ont apprécié la proposition qui va au-delà des définitions du Code criminel pour certains types de contenu. Ils ont appuyé la décision d’inclure, dans la définition, du matériel relatif à l’exploitation sexuelle des enfants qui pourrait ne pas constituer une infraction criminelle, mais qui causerait néanmoins un préjudice important aux enfants. Quelques intervenants ont dit que la proposition ne va pas assez loin et que la loi pourrait être plus large et inclure du contenu comme des images d’exploitation de la main-d’œuvre et de servitude domestique des enfants. Il y a également eu un appui pour un concept de partage non consensuel d’images intimes, même en reconnaissant qu’il est parfois impossible de savoir si toutes les personnes figurant sur l’image ont donné leur consentement.

D’autres ont prévenu que l’ouverture de ces catégories de discours interdits à une nouvelle définition causerait probablement de la confusion, créerait de l’incertitude, soulèverait de graves préoccupations au sujet de la Charte et mènerait à une controverse importante. Par ailleurs, de nouvelles définitions réglementaires étaient perçues par certains comme susceptibles d’affaiblir la valeur que la jurisprudence existante pourrait avoir pour aider les acteurs à interpréter et à appliquer ces catégories de contenu préjudiciable. Les répondants ont indiqué qu’il était important de définir avec soin les catégories réglementées, car ils ont fait valoir que les limites réglementaires à l’égard des propos préjudiciables devraient être harmonisées avec les limites criminelles à l’égard des propos préjudiciables. Les répondants ont préconisé l’utilisation des définitions existantes du Code criminel pour assurer l’harmonisation, appuyer la conformité à la Charte et éviter le glissement vers la censure.

Certains répondants ont demandé que des catégories spécifiques de contenu préjudiciable soient retirées de la portée de la législation. Par exemple, certains ont souligné que les références au " contenu terroriste " devraient être supprimées, car ils craignaient que les Canadiens musulmans ne fassent l’objet d'une sécurisation, d’une criminalisation et d’une diabolisation disproportionnées dans le cadre d'une approche du contenu préjudiciable incluant des références au terrorisme.

Quelques répondants ont déclaré que d’autres types de contenu, comme le doxing (c.-à-d. la divulgation non consensuelle de renseignements personnels propres à une personne), la désinformation, l’intimidation, le harcèlement, la diffamation, les théories du complot et les ventes illicites d’opioïdes en ligne devraient également être saisies dans le cadre législatif et réglementaire.

Manque de détails dans les définitions

De nombreuses présentations critiquaient l’absence de définitions détaillées pour les préjudices qui seraient réglementés. Les répondants ont fait remarquer que la proposition indiquait que les définitions seraient fondées sur les infractions correspondantes au Code criminel, mais n’indiquait pas précisément quelles infractions seraient incluses. Certains ont mentionné qu’il était impossible de commenter les particularités de chaque préjudice, car aucun n’était défini. Ils ont affirmé que le lecteur devait deviner ce que le gouvernement avait l’intention de faire, ainsi que la portée des définitions finales.

Beaucoup se sont questionnés sur la manière dont les plateformes devraient évaluer si le contenu se situe dans l’une des cinq catégories. Ceux-ci ont indiqué que l’un des dangers que présentent les définitions trop larges serait qu’un professionnel de la modération du contenu sans formation juridique puisse rapidement recourir aux préjugés pour décider du contenu à supprimer. Ils ont expliqué que ce type d’effet paralysant aurait un impact disparate sur les communautés marginalisées et créerait une tendance plus large à la censure de la liberté d’expression en général. Les répondants ont également indiqué qu’il était très difficile de faire la distinction entre le contenu légal et le contenu illégal, même pour les experts juridiques. Une grande partie du contenu qui serait saisi dans les cinq types de contenu préjudiciable a été étiqueté par les intervenants comme étant plus approprié dans une zone grise. Ils se sont interrogés sur la façon dont les modérateurs humains des plateformes seraient capables d’évaluer ce contenu avec précision, soulignant qu’il serait encore plus difficile, voire impossible, pour l’apprentissage automatique et l’intelligence artificielle (IA) de détecter le contexte ou la nuance et de catégoriser avec précision le contenu dans les cinq catégories.

Quelques répondants ont insisté sur l’importance de fournir des définitions rédigées en langage clair afin que toutes les victimes puissent comprendre quel comportement correspondrait à la définition et déposer une plainte. Certains intervenants ont souligné l’importance d’un langage clair et simple, notamment pour les victimes, et ont fait remarquer que la définition du discours haineux telle que proposée serait particulièrement difficile à reconnaître et à appliquer pour les victimes de ce type de contenu.

Contenu légal, mais préjudiciable

Beaucoup ont mis en garde contre l’ouverture des catégories de contenu préjudiciable aux discours qui, bien que préjudiciables, seraient néanmoins licites. Les intervenants concernés ont exprimé que le fait d’exiger la suppression de propos qui seraient autrement légaux risquerait de miner l’accès à l’information, de limiter les droits garantis par la Charte des droits et libertés, comme la liberté d’expression, et de restreindre l’échange d’idées et de points de vue qui sont nécessaires dans une société démocratique. Les répondants ont affirmé que la législation imposant des exigences de modération du contenu sur les plateformes devrait se limiter au contenu illégal seulement. De même, certains intervenants ont mis en garde le gouvernement contre la mise en œuvre d’un cadre qui créerait des normes juridiques différentes pour les environnements en ligne et hors ligne, rendant l’expression légale hors ligne illégale si partagée en ligne.

Exigences en matière de modération du contenu

La proposition énonce une exigence législative selon laquelle les entités réglementées doivent prendre toutes les mesures raisonnables pour rendre le contenu préjudiciable inaccessible au Canada. Cette exigence obligeait les entités réglementées à faire tout ce qui est raisonnable et dans leur pouvoir pour surveiller les catégories réglementées de contenu préjudiciable sur leurs services, notamment par l’utilisation de systèmes automatisés fondés sur des algorithmes. Les entités réglementées étaient également tenues de répondre au contenu signalé en évaluant s’il devait être rendu inaccessible au Canada, selon les définitions énoncées dans la loi, dans les 24 heures suivant le signalement du contenu. On prévoyait également la possibilité pour le gouverneur en conseil de modifier le délai de 24 heures pour le contenu, ou les sous-types de contenu, qui pourrait nécessiter un délai différent pour l’évaluation.

Obligation de surveillance proactive

Quelques répondants ont salué l’obligation des plateformes de prendre toutes les mesures raisonnables pour identifier le contenu préjudiciable qui est communiqué sur leur plateforme et pour le rendre inaccessible aux personnes au Canada. Cependant, la plupart des intervenants ont signalé que ces obligations étaient extrêmement problématiques. Beaucoup ont considéré que l’obligation de surveillance proactive était incompatible avec le droit à la vie privée et qu’elle équivaudrait probablement à de la censure avant la publication. Ils ont expliqué que dans un contexte réglementaire où le contenu ne pourrait pas être téléversé, l’exigence fonctionnerait de facto comme un système de restriction préalable. Les intervenants ont déclaré qu’en forçant les plateformes à surveiller proactivement leurs sites Web, plutôt que de seulement modérer le contenu en réagissant aux alertes des utilisateurs, le cadre forcerait effectivement les plateformes à censurer l’expression, dans certains cas avant que cette expression ne soit vue par d’autres. Certains ont également mentionné que les fournisseurs de services ne devraient pas représenter les entités responsables de décider si un contenu particulier est illégal. De multiples répondants ont également considéré l’obligation comme une violation des droits de la personne. Beaucoup ont demandé que la disposition soit supprimée ou que sa portée soit plus étroite.

Exigence d’inaccessibilité dans les 24 heures

De nombreux répondants ont demandé l’élimination de la période de « retrait » de 24 heures prévue dans le cadre proposé. Une majorité importante de répondants ont affirmé que l’exigence de 24 heures était systématiquement défectueuse, parce qu’elle inciterait les plateformes à être trop vigilantes et à retirer trop de contenu, simplement pour éviter la non-conformité à la fenêtre de retrait. Presque tous les répondants ont convenu qu’une période de 24 heures ne suffirait pas à répondre de façon réfléchie au contenu signalé, surtout lorsque ce contenu nécessite une analyse contextuelle. De nombreux intervenants ont dit que l’exigence de 24 heures ne permettrait pas une analyse judicieuse et réfléchie qui établit un équilibre entre le droit à la liberté d’expression au Canada en vertu de l'article 2(b) de la Charte des droits et libertés et l’objectif stratégique pressant de lutter contre les préjudices en ligne. Ils ont expliqué que le délai nuirait effectivement à la capacité des plateformes de prendre des décisions nuancées sur le contenu et les circonstances. Certains ont mentionné que l’exigence de 24 heures accélérerait le renvoi de contenu illégal et empêcherait ainsi les organismes d’application de la loi d’identifier et de prévenir les menaces à la sécurité publique ou d’enquêter sur les activités criminelles.

La plupart ont déclaré que le résultat probable de cette proposition serait que les plateformes réagiraient avec exagération en retirant du contenu qui ne s’applique pas aux cinq catégories. D’autres craignaient que, puisque le cadre proposé n’imposerait pas de pénalités aux plateformes pour avoir pris la mauvaise décision, celles-ci puissent choisir de rejeter les signaux trop rapidement et laisser en ligne du contenu préjudiciable. Cela permettrait au contenu en question de demeurer accessible aux utilisateurs, avec une forte probabilité d’avoir une incidence négative sur les Canadiens et particulièrement sur les groupes marginalisés, racialisés et intersectionnels. Dans les deux cas, de nombreux répondants ont déclaré que les décisions relatives à la modération du contenu seraient prises incorrectement. Certains répondants étaient également d’avis que, confrontés à une foule de décisions de modération incorrectes, les utilisateurs perdraient probablement confiance dans les processus de modération du contenu des plateformes en ligne.

En revanche, quelques répondants ont indiqué que le délai de 24 heures serait trop long pour certains types de contenu. Plus précisément, ils ont affirmé que le contenu sexuel illégal devrait être automatiquement supprimé lorsqu’il est signalé, même pendant qu’un examen est effectué par le service d’hébergement. Ils ont affirmé que les renvois effectués à ce rythme accorderaient la priorité aux victimes qui ont subi un traumatisme à la suite de la découverte de ce contenu.

Enfin, certains intervenants ont reconnu que l’exigence de « retrait » de 24 heures décrite dans le cadre proposé prévoyait une certaine souplesse réglementaire, de sorte que le délai puisse être modifié selon le type de contenu abordé.

Utilisation de l’intelligence artificielle et des algorithmes

La majorité des répondants étaient d’avis que l’exigence d’inaccessibilité en 24 heures et les obligations de surveillance proactive obligeraient les plateformes à faire un usage problématique des outils d’IA pour s’acquitter de leurs fonctions. Ils ont expliqué que, compte tenu du volume de contenu et des délais associés à sa modération, les plateformes ne pourront respecter leurs obligations que si les systèmes automatisés trient le contenu et prennent des décisions de modération. Les répondants ont affirmé que les filtres automatisés à eux seuls produiraient un grand volume de faux positifs, particulièrement en ce qui concerne les discours qui dépendent du contexte, comme les discours haineux, l’incitation à la violence et le contenu terroriste. Par exemple, le contenu pourrait sembler entrer dans ces catégories même s’il est utilisé à des fins légales, comme les reportages ou l’éducation. Ils ont également expliqué que l’utilisation d’algorithmes pour prendre des décisions de modération du contenu serait problématique, car ces outils sont imparfaits et il a été prouvé qu’ils perpétuent les préjugés. Les groupes de défense des victimes ont expliqué que l’utilisation d’algorithmes pour les décisions de modération du contenu mènerait à la censure discriminatoire du contenu produit par certaines communautés marginalisées dans certains contextes. Certains répondants ont déclaré que le biais algorithmique serait inévitable, même si les plateformes étaient obligées de veiller à ce que la mise en œuvre et le fonctionnement de leurs procédures et systèmes n’entraînent pas de traitement différentiel injustifié.

Communautés marginalisées

Plusieurs répondants ont souligné que l’approche proposée en matière de modération du contenu nuirait probablement à certaines communautés marginalisées. Certains ont expliqué que les outils de signalement pourraient être utilisés par des acteurs malveillants pour faire taire et maltraiter des personnes innocentes, en particulier celles appartenant à des communautés marginalisées. Par exemple, les utilisateurs qui s’opposent aux droits des travailleurs du sexe et des personnes LGBTQ2+ pourraient (et l’ont déjà fait) signaler stratégiquement le contenu comme étant destinés aux adultes pour censurer des publications légales qu’ils jugent offensantes. Les intervenants ont expliqué que même si le signalement par les utilisateurs constitue déjà un pilier de la modération du contenu, les plateformes pourraient ne plus être en mesure de faire preuve de diligence raisonnable en répondant aux alertes si elles sont obligées de prendre ces décisions dans les 24 heures. Ils ont souligné que les outils automatisés utilisés pour détecter les discours haineux et le contenu préjudiciable seraient particulièrement susceptibles d’être préjudiciables aux publications des communautés marginalisées. De nombreux répondants ont expliqué que la proposition entraînerait une expérience plus néfaste pour certaines communautés marginalisées plutôt que de fournir un espace sécuritaire pour exposer des points de vue, débattre d’idées et discuter.

Approches de rechange

Un certain nombre de répondants ont proposé des solutions de rechange au cadre de retrait du contenu proposé. Certains intervenants ont suggéré de se concentrer sur le retrait en temps opportun seulement pour certains types de contenu. Certains ont demandé que des pénalités soient imposées aux plateformes qui suppriment trop de contenu ou aux utilisateurs qui abusent des outils de signalement. D’autres ont recommandé l’utilisation d’un signaleur de confiance. De nombreux répondants ont souligné qu’au lieu de proposer un cadre axé exclusivement sur la modération du contenu, le gouvernement devrait présenter une proposition qui cible les facteurs économiques qui orientent la conception de la plateforme et la prise de décisions par l’entreprise. Les intervenants ont insisté sur l’importance de mettre l’accent sur des facteurs structurels comme les pratiques publicitaires, la surveillance des utilisateurs et la transparence algorithmique au moment d’établir un cadre de réglementation.

Certains répondants ont encouragé l’utilisation du filtrage avant le téléchargement pour améliorer l'expérience de modération du contenu pour les victimes. Ils ont souligné que cela obligerait les plateformes à détecter le contenu avant qu'il ne soit porté à l'attention des utilisateurs. Ils ont expliqué que cela atténuerait également les effets négatifs subis par les victimes de contenus préjudiciables en ligne, en particulier celles victimes d’exploitation sexuelle d'enfants et/ou de publication d’images intimes sans consentement.

La plupart des répondants ont convenu que la meilleure façon d’aborder le contenu potentiellement préjudiciable consiste à réglementer les processus et les systèmes que les plateformes ont en place. Pour de nombreuses personnes, le rôle des organismes de réglementation publics devrait se limiter à la surveillance, en veillant à ce que les systèmes de modération et de conservation du contenu soient suffisamment transparents, et à ce que les gens disposent de mécanismes clairs et convaincants de règlement des griefs et de recours.

Enfin, certains répondants ont insisté sur le fait que toute obligation législative et réglementaire doit être alignée sur les obligations commerciales internationales du Canada, et ont notamment souligné les obligations découlant de l’Accord Canada-États-Unis-Mexique (ACEUM).

Nouveaux organismes de réglementation

La proposition prévoyait la création d’une nouvelle Commission à la sécurité numérique du Canada pour appuyer trois organismes qui accompliraient le mandat en plus de superviser et d’appliquer le nouveau cadre, soit un Commissaire à la sécurité numérique du Canada, un Conseil de recours en matière numérique du Canada et un Comité consultatif. Le Commissaire à la sécurité numérique du Canada administrerait, superviserait et appliquerait les exigences du nouveau cadre. Le Conseil de recours en matière numérique du Canada offrirait aux Canadiens des recours indépendants pour les décisions de modération du contenu des entités réglementées, comme les plateformes de médias sociaux. Enfin, le Comité consultatif fournirait au Commissaire et au Conseil de recours des conseils d’experts pour éclairer leurs processus et leurs décisions, comme des conseils sur les nouvelles tendances et technologies de l’industrie et les normes de modération du contenu.

Besoin de nouveaux organismes de réglementation

La création des organismes de réglementation a reçu un large appui, car de nombreux répondants étaient d’avis que les nouveaux organismes de réglementation semblaient convenir. Cela dit, les intervenants avaient des questions sur la façon dont ces nouveaux organismes seraient mis en œuvre, dotés de ressources adéquates et sur la façon dont ils pourraient utiliser leurs pouvoirs de réglementation. Cette question était particulièrement préoccupante, selon certains, étant donné que la proposition introduirait un organisme de réglementation de l’expression en ligne, un rôle sans précédent pour un organisme de réglementation au Canada. D’autres ont remis en question le nombre d’organismes de réglementation, en insistant sur les chevauchements possibles dans les pouvoirs et la taille même de la structure bureaucratique proposée consacrée à la « censure » de l’expression en ligne. Certains répondants ont dit que la création d’un nouveau processus administratif distinct sous l’autorité de nouveaux organismes de réglementation pour statuer sur les plaintes pourrait s’avérer un processus bureaucratique long et coûteux, sans garantie d’efficacité.

Dotation du Conseil de recours

Beaucoup ont insisté sur le fait que les nouveaux organismes de réglementation devraient être dotés de personnel ayant de l’expertise pertinente pour s’acquitter efficacement des fonctions proposées. Certains ont souligné l’importance de doter le Conseil d’experts en droits de la personne, étant donné qu’il prendrait des décisions et émettrait des ordonnances qui porteraient atteinte à l'article 2(b) de la Charte des droits et libertés concernant la liberté d’expression. D’autres ont insisté sur l’importance des experts ayant de l’expérience dans les domaines de la santé et des sciences sociales, ainsi que sur l’importance d’avoir des experts ou des conseillers juridiques ou constitutionnels au sein du Conseil de recours en matière numérique.

Certains ont souligné la nécessité pour le personnel du Conseil de recevoir une formation adéquate sur les préjugés implicites, l’humilité culturelle et les approches centrées sur les victimes et les traumatismes. Les parties prenantes ont souligné que cette formation devrait inclure des mécanismes permettant de répondre aux besoins particuliers et aux obstacles rencontrés par les groupes affectés de manière disproportionnée par les contenus préjudiciables.

Beaucoup ont dit que le nombre de décideurs pour le Conseil de recours était insuffisant. Ils ont déclaré que le volume de plaintes serait probablement impossible à traiter par trois à cinq décideurs. Certains ont souligné que cette préoccupation était particulièrement importante lorsqu’on considère que les plaintes doivent être traitées rapidement, sans quoi le cadre pourrait bloquer l’accès à du contenu légitime pendant une période prolongée. D’autres ont insisté sur le fait que le nombre de décideurs ne serait pas suffisant pour atteindre les objectifs énoncés de la loi en matière de diversité. Cela a été considéré comme particulièrement problématique par certains intervenants, qui ont souligné qu’une représentation significative des collectivités touchées est essentielle pour comprendre l’expérience vécue du préjudice. D’autres ont également souligné le besoin d’une expertise suffisante pour traiter les plaintes. Les répondants ont suggéré d’augmenter le nombre de décideurs et d’inclure l’ensemble d’expertise nécessaire pour prendre ces décisions.

Dispositions de blocage

La proposition a introduit un pouvoir d'exécution exceptionnel permettant au Commissaire à la sécurité numérique, de demander à la Cour fédérale de demander une ordonnance obligeant les fournisseurs de services de télécommunications à mettre en œuvre un mécanisme de blocage ou de filtrage pour empêcher l’accès à la totalité ou à une partie d’un service au Canada qui aurait refusé à plusieurs reprises d’éliminer du contenu sur l’exploitation sexuelle des enfants ou du contenu terroriste.

Quelques répondants ont exprimé leur appui à l’égard des dispositions relatives au blocage, estimant que les limites imposées aux fournisseurs de services Internet pour bloquer l’accès du Canada à certains contenus étaient appropriées et que la limitation du pouvoir aux situations de non-conformité pour les contenus liés à l’exploitation sexuelle des enfants et les contenus terroristes était logique, étant donné que ces contenus sont illégaux et sans doute les plus dangereux. Quelques autres ont estimé que la disposition de blocage était trop étroitement circonscrite et ont préconisé qu’elle soit étendue au non-respect répété des mesures de retrait pour les trois autres types de contenu.

La plupart des répondants se sont demandé si la disposition de blocage était nécessaire, efficace ou proportionnelle. Certains ont souligné que de nombreuses plateformes se conforment de plus en plus aux exigences de suppression de contenu dans d’autres administrations sans la menace d’un blocage. Quelques intervenants ont mentionné que certains fournisseurs de services bloquent déjà volontairement l’accès des clients aux sites Web qui hébergent de la pornographie juvénile et que la création de cadres supplémentaires pourrait compliquer leur processus. D’autres répondants ont reconnu l’intégration du libellé de la proposition au sujet de la proportionnalité, mais ont insisté sur le fait que des mesures de protection plus précises seraient nécessaires étant donné la nature extrême du pouvoir de blocage. De nombreux répondants ont critiqué la proposition d’autoriser le blocage de plateformes entières, recommandant plutôt une proposition plus ciblée et conforme aux droits de la personne visant à cibler des pages Web précises. Quelques défenseurs des travailleuses du sexe ont expliqué que la portée excessive du pouvoir était particulièrement inquiétante pour eux, car elle permettrait la censure des sites qui sont cruciaux pour la sécurité des travailleurs du sexe. Ils ont expliqué que les limites d’accès aux plateformes en ligne entraînent une augmentation de la violence et de la précarité chez les travailleurs du sexe.

Certains répondants ont soutenu que la disposition sur le blocage va directement à l’encontre de l’engagement du Canada à protéger les principes de neutralité et d’ouverture sur Internet. D’autres ont remis en question la façon dont le gouvernement prévoit bloquer des pages ou des sections individuelles au sein des plateformes, en insistant sur les défis techniques liés à une telle initiative, comme l’incapacité pour les fournisseurs de services de télécommunication de désactiver l’accès à l’information dans une plateforme en ligne. D’autres répondants ont affirmé que les ordonnances de blocage seraient inefficaces. Selon eux, de tels pouvoirs mènent à un jeu perpétuel de chat et de la souris, car les sites bloqués déménagent souvent et les fournisseurs de services Internet doivent les rattraper.

Certains intervenants ont affirmé que la disposition sur le blocage des sites Web inciterait les plateformes à censurer tout contenu lié au contenu terroriste ou à l’exploitation sexuelle des enfants afin d’éviter la non-conformité. Ils ont expliqué qu’un tel pouvoir aurait un effet paralysant sur la liberté d’expression et constituerait une menace réelle pour l’ouverture et la sécurité sur Internet, car les plateformes seraient portées à supprimer tout contenu douteux plutôt que de risquer d’être bloquées. D’autres ont affirmé que pour que la disposition soit acceptable, les définitions du contenu auxquelles elle s’applique devraient être parfaitement harmonisées avec ce qui est déjà illégal. Cela éviterait la situation problématique où une plateforme serait bloquée pour héberger du contenu controversé qui, bien que préjudiciable, n’est pas illégal.

Enfin, certains intervenants étaient préoccupés par le coût associé au blocage de sites, mentionnant qu’il pourrait y avoir un impact inégal, car les plus grands fournisseurs de services pourraient être avantagés en raison de la facilité d’intégration des technologies de blocage. Le fardeau relatif supporté par les petites plateformes pourrait avoir une incidence sur leur compétitivité sur le marché.

Lien avec les organismes d’application de la loi et de sécurité nationale

La proposition reconnaissait que l’élaboration d’un cadre réglementaire comportant des exigences en matière de retrait du contenu pourrait pousser les auteurs de menaces publiques au-delà de la visibilité des organismes d’application de la loi et du Service canadien du renseignement de sécurité (SCRS). Pour établir un équilibre entre l’intérêt public de protéger les Canadiens contre l’exposition à du contenu préjudiciable et la nécessité de veiller à ce que les organismes d’application de la loi et le SCRS puissent repérer et prévenir la violence réelle émanant de l’espace en ligne, le cadre exigeait que les entités réglementées avisent les organismes d’application de la loi (et/ou le SCRS) de certains types de contenu illégal (contenu lié à la sécurité nationale pour le SCRS) qui entrent dans les cinq catégories afin de permettre la prise de mesures d’enquête et de prévention appropriées. Deux options possibles ont été présentées :

  • Une approche consistait à exiger que les entités réglementées avisent les organismes d’application de la loi dans les cas où il existe des motifs raisonnables de soupçonner qu’il y a un risque imminent de préjudice grave à une personne ou à des biens découlant d’un contenu illégal faisant partie des cinq catégories de contenu préjudiciable (approche universelle).
  • Une autre approche consistait à exiger que les entités réglementées déclarent directement aux organismes d’application de la loi les renseignements publics associés à certains types de contenu illégal qui entrent dans les cinq catégories, ainsi que le contenu préoccupant sur le plan de la sécurité nationale pour le SCRS. Le gouverneur en conseil aurait le pouvoir de prescrire les types de contenu illégal assujettis à la déclaration et les seuils juridiques pour la déclaration de ce contenu (approche souple).

De plus, les entités réglementées étaient tenues de préserver les renseignements réglementés qui pouvaient appuyer une enquête lorsqu’ils étaient demandés par des moyens légaux (p. ex., une ordonnance de publication). La nature précise de l’information à préserver (notamment les renseignements de base sur l’abonné, les données sur l’emplacement, le contenu lui-même, l’infraction présumée ou la menace à la sécurité nationale) serait déterminée par règlements émis par le gouverneur en conseil. L’obligation de déclaration visait à fournir aux organismes d’application de la loi des renseignements destinés au public associés à certains types de contenu illégal pour demander une autorisation judiciaire pour la production d’autres renseignements conservés à partir d’une plateforme (renseignements d’identification de l’utilisateur).

Il convient de noter que cet élément de la proposition n’avait pas pour but de remplacer – ou d’avoir préséance sur – les exigences existantes en matière de signalement ou de préservation des infractions liées à la pornographie juvénile en vertu de la Loi sur la déclaration obligatoire, car ce point demeurerait pareil au titre de la législation existante.

Quelques répondants se sont dits très favorables à l’obligation de préserver, sur les plateformes, l’information liée aux rapports qu’ils soumettraient aux organismes d’application de la loi et de sécurité nationale. Quelques répondants ont accueilli favorablement la proposition d’inclure un protocole sur les incidents critiques en réponse à l’appel à l’action de Christchurch. Certains ont déclaré qu’ils comprenaient les besoins légitimes des organismes d’application de la loi et qu’ils appuyaient les plateformes qui faisaient des déclarations volontaires aux organismes d’application de la loi au sujet du contenu illégal et qui aidaient les organismes d’application de la loi à traiter les demandes de publications autorisées par les tribunaux. Toutefois, la majorité des répondants ont critiqué les nouvelles exigences de déclaration obligatoire et de préservation proposées.

Transmission de données

Bon nombre parmi les répondants ont critiqué la proposition exigeant que les plateformes transmettent des renseignements sur les utilisateurs aux organismes d’application de la loi et de sécurité nationale sans prévoir de mesures de protection appropriées (p. ex., surveillance judiciaire ou avis aux personnes touchées). Les intervenants ont expliqué que les exigences poseraient un risque important pour le droit à la vie privée des personnes. Ils étaient d’avis que la proposition élargissait les capacités de surveillance juridique et technique de l’État en utilisant la sécurité comme motif, mais sans établir la nécessité de telles obligations. Beaucoup ont fait valoir que la proposition n’apportait que peu de clarté, voire aucune, sur les limites de la transmission de l’information ou sur les délais durant lesquels les organismes seraient autorisés à stocker des données et de l’information. Le manque de précision de la proposition quant à la façon dont les organismes d’application de la loi et de sécurité nationale traiteraient les renseignements reçus à l’égard de contenu préjudiciable qu’ils jugent non illégal (p. ex., destruction, ségrégation des dossiers, etc.) a également été critiqué.

Exigence de déclaration obligatoire

La première option de déclaration obligatoire a été mieux accueillie que la deuxième, même si elle aussi a fait l’objet de critiques. Certains ont jugé que c’était une option appropriée. Toutefois, la plupart des répondants ont demandé au gouvernement de clarifier les termes comme « motifs raisonnables de soupçonner » et « dommages sérieux » afin d’atténuer les risques de miner les droits garantis par la Charte, notamment la liberté d’expression et les risques au droit d’être protégé contre les fouilles, les perquisitions et les saisies abusives. Certains ont également critiqué l’approche universelle, parce qu’elle ne tient pas compte des différences entre les catégories et l’environnement de menace. Beaucoup ont affirmé qu’il faudrait mettre en place des freins et des contrepoids pour protéger les Canadiens.

La deuxième option de déclaration obligatoire a été plus fortement critiquée. Les répondants ont affirmé qu’elle serait trop discrétionnaire pour que les plateformes l’exécutent de façon significative et ont recommandé qu’elle soit abandonnée. Ils ont aussi questionné sur la manière dont les plateformes pourraient déterminer si le contenu est illégal. Cela dit, quelques répondants ont souligné la nécessité de signaler et de préserver les contenus relatifs à l'exploitation sexuelle des enfants.

Effets sur les communautés marginalisées

De nombreux intervenants ont fait valoir que les exigences de déclaration obligatoire entraîneraient probablement des répercussions disproportionnées sur certaines communautés marginalisées. Étant donné que le contenu provenant de ces communautés reçoit déjà un nombre disproportionné de signalements comparativement au contenu semblable provenant d’autres communautés, en plus de l’obligation de retrait en 24 heures, certains ont soutenu que la proposition pourrait faire en sorte que ces groupes constatent que leurs publications sont transmises par les plateformes de façon excessive aux organismes d’application de la loi ou au SCRS pour enquête. Les répondants ont expliqué qu’une telle proposition pourrait entraîner la déclaration injustifiée et disproportionnée du contenu produit par les groupes marginalisés aux organismes d’application de la loi, dont certaines publications pourraient ne pas être illégales. De plus, les obligations de conservation obligeant les plateformes à conserver l’information liée au contenu pourraient soulever d’autres préoccupations en matière de protection de la vie privée et de confidentialité pour ces groupes. Selon les intervenants, ces préoccupations sont particulièrement répandues lorsque les exigences de déclaration obligatoire sont associées à l’obligation de surveillance proactive. Selon de nombreux répondants, une telle approche pourrait entraîner la création d’un État de surveillance, où les plateformes de surveillance en ligne sont des annexes aux organismes d’application de la loi.

Solutions de rechange

Les répondants ont présenté des solutions de rechange aux options incluses dans la proposition. Certains ont laissé entendre que les obligations de déclaration et de préservation ne devraient s’appliquer qu’à des types précis de contenu préjudiciable, comme le contenu sur l’exploitation sexuelle des enfants et le contenu terroriste. D’autres ont recommandé que les obligations de déclaration et de préservation soient accompagnées de garanties procédurales pour prévenir les risques de surveillance gouvernementale injustifiée et d’empiétement sur les droits garantis par la Charte, notamment le droit à la vie privée et à la liberté d’expression des utilisateurs.

Rôle des plateformes

Dans plusieurs présentations, des répondants ont affirmé que le fait d’exiger de la part des plateformes la surveillance et la transmission de façon proactive des données des utilisateurs permettrait effectivement aux fournisseurs non démocratiques de rendre des comptes et de prendre des décisions subjectives sur des questions criminelles pour lesquelles ils ne sont pas qualifiés. Les répondants ont dit préférer laisser de telles prérogatives aux mains des organismes d’application de la loi, qui en ont l’expertise requise.

Faisabilité

Certains intervenants ont indiqué qu’ils ne croyaient pas que les exigences en matière de déclaration seraient applicables aux organismes d’application de la loi. Ils ont expliqué que toutes les publications mises à la disposition des Canadiens sur une plateforme qui pourrait constituer une infraction criminelle seraient probablement signalées. Dans une telle situation, les organismes d’application de la loi et de sécurité nationale pourraient être débordés par le nombre de signalements qu’ils reçoivent et pourraient être incapables de les trier pour déterminer les véritables menaces.

Protection des renseignements personnels

De nombreux répondants craignaient que les obligations de conservation et de déclaration mènent à une surveillance et à un stockage inadéquat et excessif des données personnelles. Ils ont expliqué qu’il est essentiel de veiller à ce que le droit à la vie privée des Canadiens soit respecté. D’autres ont souligné que les préoccupations relatives à la protection de la vie privée doivent constituer un élément fondamental de toute nouvelle loi, car les données personnelles équivalent à une forme d’argent pour les plateformes en ligne, et l’identité, les données et l’argent des Canadiens seraient dans une situation vulnérable dans un tel environnement. Certains ont soutenu que la transmission de renseignements sur des personnes étrangères aux autorités canadiennes responsables de l’application de la loi ou de la sécurité nationale pourrait violer les lois sur la protection des renseignements personnels d’autres pays.

Certains intervenants ont également souligné que, si le cadre devait inclure des exigences en matière de rapports démographiques, les plateformes seraient forcées de commencer à recueillir des données supplémentaires de nature délicate portant sur les utilisateurs canadiens, contrairement aux intérêts des utilisateurs en matière de protection des renseignements personnels. Ils ont également soutenu que cela créerait un risque permanent pour la protection des renseignements personnels des Canadiens en forçant les plateformes à conserver indéfiniment des données démographiques détaillées sur tous leurs utilisateurs canadiens, dont certains pourraient être lésés si leurs données démographiques sensibles devenaient publiques à la suite d’une atteinte à la protection des données. Par conséquent, ces intervenants ont recommandé que toute obligation de collecte de données démographiques soit abandonnée.

2 : Questions soulevées avec un intérêt modéré

Exigences en matière de modération du contenu

Responsabilité des plateformes

Certains répondants ont soutenu que le cadre proposé dissocierait les décisions initiales de modération du contenu des plateformes de la responsabilité. Ces observations indiquaient que le cadre obligerait les plateformes à décider si le contenu est préjudiciable, mais n’imposerait pas de pénalités si leurs décisions étaient erronées. Les intervenants ont considéré cet élément comme une protection utile de l'article 2(b) de la Charte des droits et libertés concernant la liberté d’expression et une protection importante contre l’incitation pour les plateformes à supprimer du contenu de façon exagérée.

Processus de traitement des plaintes

Certains intervenants ont apprécié le fait que les plateformes aient le mandat de répondre en temps opportun aux plaintes des utilisateurs et qu’elles soient obligées d’offrir un processus d’appel clair. Quelques-uns ont également salué le mécanisme d’appel auprès du Conseil de recours en matière numérique. Les intervenants ont expliqué que ces mécanismes aident à assurer l’équité procédurale pour les utilisateurs et qu’ils peuvent également réduire la probabilité de recours aux préjugés de la part de la plateforme envers le signaleur ou la personne qui poste du contenu, car tous deux se voient accorder le même recours.

Fardeau sur les petites plateformes

Plusieurs répondants ont souligné à quel point il pourrait être difficile pour les petites plateformes de respecter les obligations de modération du contenu selon la proposition. Ils ont fait valoir que le cadre a des répercussions très importantes sur les ressources, car sa mise en œuvre nécessiterait des plateformes pour créer ou repenser des systèmes automatisés d’IA pour le marché canadien, et il faudrait engager suffisamment de ressources humaines pour examiner, évaluer l’abondance probable du contenu signalé et y réagir. Certains craignaient qu’une réglementation trop lourde ne force de petits joueurs à quitter le marché. Les défenseurs des travailleurs du sexe ont expliqué qu’un tel phénomène pourrait être particulièrement dommageable pour les travailleurs du sexe au Canada, car il découragerait le genre d’environnement de travail autonome qu’ils utilisent pour exercer plus d’autonomie et d’autodétermination dans leur carrière. Ils ont expliqué que les travailleurs du sexe indépendants ne possèdent pas les ressources nécessaires pour modérer le contenu sur leurs plateformes dans des délais stricts. Confrontés à des obligations onéreuses, ils seraient probablement forcés de s’allier à des plateformes plus vastes, ce qui aggraverait les préjudices associés aux oligopoles plus importants qui prédominent déjà dans l’industrie du sexe.

Inefficacité du cadre

Le contenu publié en ligne existe souvent dans les administrations nationales partout dans le monde. Certains étaient d’avis que l’obligation de « retirer » le contenu pour le rendre inaccessible au Canada – alors que ce même contenu demeurerait disponible dans d’autres pays – pourrait entraîner une fragmentation d’Internet. Ces répondants ont expliqué que les règlements d’autres pays sur le contenu en ligne n’ont pas empêché leurs citoyens de visionner le contenu en question. Les gens ont plutôt utilisé des réseaux privés virtuels (RPV) et d’autres technologies pour visualiser le contenu. Selon les intervenants, cette fragmentation nuit également aux victimes. Ils expliquent que ces victimes ne pourraient plus voir le contenu préjudiciable, puisqu’elles l’auraient signalé et qu’il serait devenu inaccessible. Toutefois, le contenu serait toujours vu par des gens d’autres administrations ou par ceux qui utilisent la technologie, comme les RPV, pour contourner l’inaccessibilité. Par conséquent, les victimes continuent de souffrir, car le contenu préjudiciable est toujours accessible et elles ne peuvent plus le signaler. On s’inquiétait également de la façon dont le processus d’appel fonctionnerait si des personnes de l’extérieur du Canada voulaient en appeler de la suppression de leur contenu.

Exigences en matière de transparence et de responsabilisation

La proposition obligeait les entités réglementées à être plus transparentes dans leurs activités. Selon la proposition, les entités étaient tenues de publier des renseignements qu’elles ne publient pas actuellement, avec des exigences de base en matière de transparence énoncées dans la loi et précisées dans le règlement. Cela comprenait des données propres au Canada sur le volume et le type de contenu traité à chaque étape du processus de modération du contenu, ainsi que des renseignements sur la façon dont les entités réglementées élaborent, mettent en œuvre et mettent à jour leurs lignes directrices pour les types de contenu qu’elles interdisent. Les entités réglementées seraient également tenues de publier des rapports de transparence sur l’utilisation propre au Canada et l’incidence de leurs systèmes automatisés pour modérer, supprimer et bloquer l’accès au Canada à du contenu préjudiciable.

De nombreux répondants ont insisté sur l’importance d’imposer des exigences en matière de transparence et de responsabilisation aux plateformes en ligne. Certains ont indiqué que la transparence obligatoire et vérifiée est l’un des outils de gouvernance de plateforme les plus puissants à la disposition du gouvernement. Ils ont considéré que ces obligations offraient d’importantes mesures de protection pour atténuer le risque de retrait excessif et de censure dans le cadre proposé.

Les opinions étaient contradictoires en ce qui concerne l’obligation de rendre compte de la façon dont les plateformes monétisent le contenu préjudiciable. Certains ont appuyé la notion, la qualifiant de mesure utile pour suivre et divulguer de l’information. Cependant, d’autres intervenants ont prétendu que cette exigence visait à humilier publiquement les entreprises et qu’elle rendrait ainsi moins fiables les données qu’elles fournissent, étant donné que les plateformes seraient incitées à prétendre qu’elles ne tirent pas profit du contenu préjudiciable affiché par leurs utilisateurs.

Certains répondants ont donné un aperçu de ce qui, selon eux, devrait être visé par les obligations de transparence. Les exemples comprenaient des données qui mettent en lumière l’emplacement social des collectivités ciblées, les personnes qui publient du contenu et le contenu lui-même, afin de faciliter l’identification de toute tendance discriminatoire. D’autres ont insisté sur le fait que l’obligation d’inclure des données démographiques dans les rapports de la plateforme serait irréaliste et porterait atteinte aux droits à la vie privée des utilisateurs. Ils ont expliqué qu’une telle exigence obligerait les plateformes qui ne le font pas jusque-là à commencer à recueillir et à conserver des données sensibles supplémentaires sur leurs utilisateurs, ce qui va à l’encontre des intérêts en matière de protection de la vie privée et des principes de minimisation des données. Certains intervenants ont également mentionné que les catégories de données qui pourraient être incluses dans le rapport devraient être réexaminées afin d’obliger les plateformes à diffuser l’information la plus utile et la plus pertinente. Ils ont également mentionné que certaines des catégories proposées seraient trop ambiguës pour être quantifiées ou qu’elles seraient impossibles à mesurer.

Nouveaux organismes de réglementation

Indépendance, responsabilisation et surveillance

Quelques répondants ont considéré l’indépendance des organismes de réglementation comme une caractéristique positive de la proposition. Ils ont souligné que l’indépendance des trois nouveaux organismes de réglementation qui ont des fonctions d’exécution ou des fonctions judiciaires serait essentielle pour assurer le bon fonctionnement de la Loi. Certains se sont concentrés sur le Conseil de recours en matière numérique en tant qu’organisme de réglementation indépendant et impartial, expliquant qu’il ne serait approprié pour un organisme de réglementation de modérer les différends en matière de modération du contenu que si l’organisme décidant des appels est libre de toute influence politique et commerciale.

D’autres répondants ont critiqué la proposition, parce qu’elle ne prévoit pas suffisamment de mécanismes qui assurent la surveillance et la responsabilisation de ces nouveaux organismes de réglementation par le Parlement. Selon les intervenants, une telle surveillance permettrait de s’assurer que les régulateurs agissent dans l’intérêt public et interviennent sur les marchés de manière non arbitraire. Bien que les répondants reconnaissent les exigences de transparence de la proposition, ces obligations ont été jugées insuffisantes pour se protéger contre d’éventuels abus de la réglementation.

Mandat du Commissaire à la sécurité numérique

Certains répondants ont dit apprécier le vaste mandat du Commissaire à la sécurité numérique. Ils ont fait remarquer que les fonctions de l’organisme de réglementation vont au-delà des cinq types de contenu préjudiciable prescrits dans la proposition, félicitant la façon dont cette fonction permettrait, espérons-le, à la Commission de s’engager dans des partenariats et des recherches sur des questions plus vastes de sécurité numérique qui ne font pas encore l’objet d’une action réglementaire (p. ex., désinformation préjudiciable à la sécurité publique, médias synthétiques ou étiquetage automatisé/robotique, transparence de la publicité, doxing, transparence algorithmique, etc.). Certains appuyaient également le pouvoir du Commissaire d’établir des partenariats avec la société civile et avec des alliés internationaux. D’autres encore ont souligné qu’il devrait y avoir des freins et des contrepoids clairs envers le pouvoir du Commissaire.

Décisions du Conseil de recours

Certains ont reproché au Conseil de recours en matière numérique de ne pouvoir prendre des décisions exécutoires que lorsqu’il s’agit d’imposer la suppression de contenu, mais non lorsqu’il s’agit de rétablir ce contenu. Par ailleurs, quelques répondants ont affirmé que les personnes devraient pouvoir déposer une plainte auprès du Conseil sans avoir à recourir d’abord aux mécanismes d’appel de la plateforme. Ces quelques intervenants ont souligné que les processus de réexamen des plateformes sont souvent inefficaces et lents.

Exigences en matière de notification et d’appel

La proposition obligeait les entités réglementées à établir de solides systèmes de signalement, de notification et d’appel pour les auteurs de contenu et ceux qui signalent du contenu.

Certains répondants appuyaient l’obligation sur les plateformes d’informer les utilisateurs de leurs décisions en matière de modération du contenu et de leur donner la possibilité de demander réparation. D’autres ont apprécié le fait que de telles garanties procédurales seraient accordées à l’auteur du contenu signalé et à l’utilisateur qui le signale.

Certains ont demandé un mécanisme d’appel pour les décisions prises par le Conseil de recours et le Commissaire. Les répondants ont insisté sur le fait que les mécanismes d’appel seraient cruciaux, surtout compte tenu du fait que les droits et libertés des Canadiens sont en jeu. Quelques-uns ont salué le fait que les ordonnances exécutoires seraient portées en appel devant le Tribunal de la protection des renseignements personnels et des données.

Quelques répondants ont critiqué ce processus. Ils ont souligné que s’il y avait une erreur de retrait, la plateforme aurait le dernier mot sur la question de savoir si le contenu devrait être rétabli en fonction de ses propres lignes directrices communautaires – un résultat qui finirait par miner le type de recours envisagé.

Mesures de conformité et d’application de la loi

La proposition donnait au Commissaire des pouvoirs de conformité et d’application de la loi, comme le pouvoir d’inspecter de façon proactive la conformité, de délivrer des ordonnances de conformité et, dans des cas précis de non-conformité aux obligations législatives et réglementaires, de recommander des sanctions administratives pécuniaires pouvant atteindre 10 millions de dollars, ou 3 % du revenu brut global d’une entité, selon le montant le plus élevé, pour non-conformité au Tribunal de la protection des renseignements personnels et des données proposé dans la Loi de mise en œuvre de la Charte canadienne du numérique, 2020 (projet de loi C-11).

Pertinence de la trousse d’outils d’application de la loi

La plupart des répondants ont reconnu la nécessité de posséder des mécanismes d’application appropriés, raisonnables et proportionnels pour régler le problème de non-conformité des plateformes. Dans cet esprit, certains ont accueilli favorablement le projet de sanctions administratives pécuniaires (SAP) qui s’appliquerait aux entités réglementaires non conformes. Cependant, un certain nombre d’auteurs de présentations ont exprimé des préoccupations au sujet du cadre d’application proposé.

Quelques répondants ont demandé le renforcement des outils d’application de la loi. Bien qu’ils aient accueilli favorablement les sanctions pécuniaires, ils ont estimé qu’il fallait en faire davantage pour faire respecter les obligations de la plateforme, notamment en rendant les dirigeants et les membres du conseil d’administration des entreprises personnellement responsables. En revanche, d’autres étaient d’avis que les outils d’application de la loi ne devraient être utilisés que dans les cas de défaillance systémique, plutôt que dans les cas individuels de non-conformité. Les répondants craignaient que l’imposition de SAP à des cas précis de non-conformité puisse nuire à l’accès à l’information, à la liberté d’expression et à l’innovation. Ils craignaient également que les plateformes ne soient passibles de sanctions pour avoir commis des erreurs concernant les décisions de modération du contenu, même lorsqu’elles auraient agi de bonne foi. Certains ont supposé que le cadre prévoirait des amendes sévères pour les plateformes qui pourraient ne pas retirer du contenu préjudiciable dans les 24 heures. Ces défendeurs ont affirmé que de telles sanctions disproportionnées mèneraient inévitablement à une conformité exagérée de la part de la plateforme et nuiraient à la liberté d’expression et à l’accès à l’information.

Quelques répondants ont soutenu que le cadre serait inapplicable, car il imposerait des obligations aux plateformes qui n’exercent aucune fonction opérationnelle au Canada. Selon ces répondants, le gouvernement ne devrait pas adopter de cadre, particulièrement un cadre aussi élaboré et coûteux, qui serait inapplicable en réalité. Ils ont expliqué que même si les grandes plateformes pouvaient se conformer volontairement au cadre, les plateformes qui hébergent délibérément du contenu préjudiciable demeureraient hors de la portée des lois canadiennes.

Montants des SAP

Quelques répondants ont affirmé que les montants des SAP n’étaient pas suffisamment élevés pour les grandes plateformes ayant un potentiel de gains élevé. Ces répondants ont expliqué que la mesure d’application de la loi pourrait ne pas être efficace et pourrait plutôt donner lieu à un système de fonctionnement monétisé, où les plateformes considèrent les amendes comme un coût d’exploitation et décident de ne pas se conformer au cadre. D’autres répondants ont affirmé que les sanctions proposées étaient punitives et disproportionnées, surtout pour les petites plateformes. Ils ont affirmé que les sanctions devraient être proportionnelles à la violation. Certains ont soutenu qu’il était inapproprié d’associer des pénalités au revenu brut mondial d’une plateforme. Ces auteurs ont affirmé que cette pratique entraînerait des sanctions qui ne sont pas liées aux activités des plateformes au Canada et à la réalité de leur présence sur le marché canadien.

Inspection et pouvoir de rendre des ordonnances

Certains répondants ont souligné que les pouvoirs d’inspection et d’ordonnance étaient particulièrement inquiétants. Bien que certains aient reconnu que les nouveaux organismes de réglementation auraient besoin de pouvoirs suffisants pour s’acquitter de leurs fonctions, la plupart ont considéré que les pouvoirs étaient incroyablement vastes, intrusifs et qu’ils suscitaient des abus. Ils craignaient également que de tels pouvoirs créent un précédent inutile et nuisible à d’autres cadres de réglementation. Les répondants ont recommandé de limiter considérablement les pouvoirs.

Éducation et recherche

Certains répondants ont demandé que le nouveau régulateur soit doté de la capacité de diriger et de participer à des recherches et des programmes visant à réduire les contenus préjudiciables en ligne. Certains ont également demandé une législation obligeant les plateformes à organiser des campagnes de citoyenneté numérique et de sensibilisation du public aux contenus préjudiciables en ligne. Les personnes interrogées ont expliqué que les campagnes de sensibilisation et d’'éducation du public sont particulièrement cruciales pour les jeunes, compte tenu de leur forte utilisation des médias sociaux. Les parties prenantes ont souligné que les initiatives de recherche et la sensibilisation des citoyens sont des outils précieux qui devraient être utilisés pour faire progresser les objectifs du cadre.

3 : Questions soulevées par quelques répondants

Audiences à huis clos

Certains ont critiqué la capacité du Commissaire à la sécurité numérique de tenir des audiences en privé lorsque la vie privée, la sécurité nationale, les relations internationales, la défense nationale ou des intérêts commerciaux confidentiels sont en jeu. Les répondants ont expliqué qu’un cadre fondé sur l’équilibre délicat des droits des Canadiens nécessiterait un débat public ouvert et actif et une transparence complète en ce qui concerne les pratiques commerciales. Ainsi, selon certains, la protection des intérêts commerciaux confidentiels ne devrait jamais, en soi, être suffisante pour justifier une audience à huis clos. D’autres ont suggéré que des seuils et des critères clairs soient établis pour délimiter les situations où les audiences pourraient être tenues à huis clos.

Redevances réglementaires

Certains intervenants ont critiqué les frais réglementaires proposés, les qualifiant de taxes imposées à certaines plateformes en ligne, mais pas à toutes. Les répondants ont souligné que le coût de ces frais incomberait finalement aux consommateurs. Ils ont également souligné que les plateformes devraient déjà engager des coûts considérables pour respecter les autres obligations législatives et réglementaires du cadre. D’autres ont demandé des renseignements supplémentaires sur le coût du cadre proposé et sur la façon dont le fardeau financier serait réparti entre les divers types d’entités réglementées. Certains répondants se sont demandé si les plateformes plus grandes devraient contribuer davantage, expliquant que les frais pourraient créer d’importantes iniquités, car les plateformes respectueuses de la loi seraient forcées de payer le coût de la surveillance policière des plateformes non conformes.

Ne pas agir assez rapidement ou ne pas en faire assez

Quelques répondants ont critiqué le cadre proposé parce qu’il n’en faisait pas assez ou n’allait pas assez vite. Certains ont demandé qu’un projet de loi officiel soit déposé immédiatement, soulignant les préoccupations selon lesquelles la mise en œuvre complète d’un tel cadre prendrait des mois, voire des années. Ces intervenants ont souligné que les communautés, en particulier les groupes marginalisés, ne peuvent pas se permettre d’attendre, car elles sont actuellement confrontées à un préjudice irréparable. D’autres ont insisté sur le fait que le cadre devrait tenir les plateformes responsables au moyen d’une obligation de résultat, par opposition à une obligation de faire de son mieux, affirmant que cette dernière norme n’est pas propice pour assurer adéquatement la sécurité des Canadiens en ligne.

Adaptation des exigences réglementaires

La plupart des répondants ont apprécié le fait que la proposition permettait d’adapter les obligations réglementaires à différentes catégories de plateformes en ligne, en tenant compte de divers modèles d’affaires, tailles et ressources des entités potentiellement réglementées. Cependant, certains ont exprimé des préoccupations au sujet de la capacité d’adapter les obligations, affirmant que les obligations de modération pour le contenu comme le matériel d’exploitation sexuelle des enfants et le partage non consensuel d’images intimes devraient être imposées, indépendamment des différents modèles d’affaires ou de capacité.

Modifications à la Loi sur la déclaration obligatoire

Le gouvernement a proposé de modifier la Loi sur la déclaration obligatoire afin de mieux lui permettre de composer avec le rythme rapide du changement et l’évolution de la façon dont le matériel décrivant l’exploitation sexuelle des enfants est créé et partagé en ligne aujourd’hui. Des réformes ciblées de la Loi sur la déclaration obligatoire et de ses règlements amélioreraient les mesures visant à lutter contre l’exploitation sexuelle des enfants en ligne, appuieraient les enquêtes et aideraient à secourir les enfants qui se trouvent dans une situation de violence. Le gouvernement modifierait la Loi sur la déclaration obligatoire de la façon suivante :

  • Centraliser la déclaration obligatoire des infractions de pornographie juvénile en ligne par l’entremise du Centre national de coordination contre l’exploitation d’enfants (CNCEE) de la Gendarmerie royale du Canada;
  • Préciser que la Loi sur la déclaration obligatoire s’applique à tous les types de services Internet, notamment les plateformes de médias sociaux et d’autres services fondés sur des applications;
  • Accroître la transparence en exigeant un rapport annuel du CNCEE remis aux ministres de la Sécurité publique et de la Protection civile et de la Justice;
  • Imposer une exigence de conservation de 12 mois pour les données informatiques (par opposition aux 21 jours actuels);
  • Désigner une personne dans les règlements aux fins de la collecte de renseignements afin de déterminer l’application de la Loi sur la déclaration obligatoire; et
  • Ajouter l’obligation pour les personnes qui fournissent un service Internet de fournir, sans exigence d’autorisation judiciaire, des renseignements supplémentaires au CNCEE lorsqu’une infraction de pornographie juvénile est identifiée.

La plupart des répondants n’ont pas abordé les modifications proposées à la Loi sur la déclaration obligatoire. Quelques-uns étaient heureux que le cadre comprenne des modifications visant à renforcer la Loi. Ils ont affirmé que bon nombre des changements proposés renforceraient les efforts visant à réduire la pornographie juvénile. Ils se sont prononcés fortement en faveur de modifications qui permettraient aux organismes d’application de la loi de localiser les contrevenants plus rapidement, comme l’exigence pour les entreprises d’inclure des renseignements de base sur les abonnés dans leurs rapports aux organismes d’application de la loi. Certains ont reconnu que le fait de ne plus avoir besoin d’une autorisation judiciaire pour obtenir des données de transmission ou des renseignements de base sur les abonnés est une modification nécessaire pour accélérer l’intervention de la police dans les cas où une infraction est évidente. D’autres ont exprimé des préoccupations, déclarant qu’en raison de la nature proactive et obligatoire de la déclaration, cette déclaration peut inclure de faux positifs, et donc le fait d’exiger des renseignements d’identification personnels supplémentaires pourrait avoir une incidence négative sur les droits à la vie privée des utilisateurs innocents. Il a été noté qu’il serait préférable d’exiger seulement la déclaration des données de transmission, plutôt que les données de transmission et les renseignements de base sur les abonnés, car cela permettrait d’accélérer l’intervention de la police, tout en respectant les droits garantis par la Charte, notamment la liberté d’expression et la protection de la vie privée.

Modifications à la Loi sur le Service canadien du renseignement de sécurité

Le gouvernement a proposé de modifier la Loi sur le Service canadien du renseignement de sécurité. Des modifications ont été proposées au processus d’autorisation judiciaire et permettraient au SCRS d’identifier plus rapidement les auteurs de menaces en ligne, ainsi que d’enquêter sur la propagation des discours d’extrémistes violents qui pourraient inspirer des actes de violence dans le monde réel en vue de les atténuer ou d’intervenir. À l’heure actuelle, le SCRS n’a qu’une seule option de mandat qui est conçue pour demander des pouvoirs intrusifs à la Cour fédérale. Il faut de quatre à six mois pour élaborer la demande et obtenir l’approbation de la Cour fédérale. Les organismes canadiens d’application de la loi, sont, cependant, en mesure d’obtenir des renseignements de base sur les abonnés en 8 à 10 jours. La nouvelle autorisation éventuelle pour les renseignements de base sur les abonnés serait délivrée par un juge indépendant de la Cour fédérale et ferait l’objet d’une surveillance ministérielle. Elle ne remplacerait pas ou n’éliminerait pas l’obligation du SCRS d’obtenir un mandat complet de la Cour fédérale si une enquête plus approfondie sur la menace s’avérait nécessaire. Comme pour toutes les activités du SCRS, les demandes de renseignements personnels pourraient être examinées par l’Office de surveillance des activités en matière de sécurité nationale et de renseignement et le Comité des parlementaires sur la sécurité nationale et le renseignement.

La plupart des répondants n’ont pas abordé les modifications proposées à la Loi sur le Service canadien du renseignement de sécurité, bien que certains aient soulevé des préoccupations. Ils ont expliqué que l’abaissement du seuil légal et l’application régulière de la loi connexe à l’accès aux renseignements personnels pourraient entraîner d’importantes atteintes à la vie privée, avoir des effets paralysants sur l’expression, avoir une incidence disproportionnée sur certains groupes marginalisés et mener facilement à des abus. Ils ont déclaré qu’avant d’apporter de telles modifications, le gouvernement devrait fournir des preuves claires démontrant pourquoi ces nouveaux pouvoirs sont nécessaires, et quelles mesures de protection et de surveillance supplémentaires pourraient être efficaces pour atténuer ces préoccupations.

Prochaines étapes

Le gouvernement continue de réfléchir aux prochaines étapes et annoncera d'autres mesures sous peu.

Annexes

Signaler un problème ou une erreur sur cette page
Veuillez sélectionner toutes les cases qui s'appliquent :

Merci de votre aide!

Vous ne recevrez pas de réponse. Pour toute question, contactez-nous.

Date de modification :