Résumé de la deuxième session : Types de contenu à réglementer

Le groupe consultatif d’experts sur la sécurité en ligne a tenu sa deuxième session le 21 avril de 13 h à 16 h, heure avancée de l’Est (HAE), sur les types de contenu à réglementer. Onze membres étaient présents. Des représentants du gouvernement des ministères du Patrimoine canadien, de la Justice, de l’Innovation, des Sciences et du Développement économique et de la Sécurité publique, ainsi que du Bureau du Conseil privé ont assisté à la discussion. Des représentants de la Gendarmerie royale du Canada étaient également présents.

Le présent résumé donne un aperçu de la deuxième session. Conformément au mandat du groupe consultatif, ces séances sont régies par la règle de Chatham House. À ce titre, le présent résumé n’attribue pas les opinions exprimées à un membre d’un groupe ou à une organisation quelconque. Il expose les opinions exprimées au cours de la session, rend compte des domaines d’entente, de désaccord et de discussion, et organise la discussion selon des catégories thématiques. Il ne doit pas être considéré comme une récitation textuelle de la discussion.

L’atelier avait pour thème la question suivante : « Quelle devrait être la portée du contenu réglementé en vertu du cadre législatif et réglementaire et comment définir le contenu réglementé? »

La feuille de travail de la session comprenait les quatre objectifs suivants :

  1. Déterminer le contenu à réglementer en vertu d’un cadre législatif et réglementaire;
  2. Évaluer si les obligations législatives et réglementaires du cadre devraient différer en fonction de la catégorie de contenus réglementés;
  3. Déterminer la meilleure façon d’établir la portée des contenus réglementés et de les définir;
  4. Déterminer le niveau adéquat de souplesse à intégrer dans la loi et la réglementation.

Le présent résumé fait état des perspectives soulevées par rapport à ces objectifs et organise les points de discussion en fonction de thèmes précis.Note de bas de page 1

Thème A : Le cadre législatif et réglementaire

Objectif de la loi

De nombreux experts ont insisté sur le fait qu’il serait important de définir un objectif clair pour le cadre. Certains ont proposé des objectifs possibles comme réduire le contenu préjudiciable en ligne et obliger les services réglementés à gérer le contenu sur leurs plateformes de façon proactive et réactive. Plusieurs experts ont répété que le cadre ne pouvait pas viser la perfection, en mentionnant que le régime en serait nécessairement un d’essais et erreurs. Certains ont laissé entendre qu’un cadre législatif efficace devrait s’efforcer d’être concis, accessible, clair et souple. Les experts ont déclaré qu’un tel cadre aurait un ensemble de principes définis, instaurerait des normes pour ce à quoi ressemble une action responsable et s’appliquerait à un large éventail de services en ligne.

Rôle des services en ligne

De nombreux experts ont souligné le rôle que jouent les services en ligne dans la création d’un espace permettant des discussions sur le contenu préjudiciable ou la diffusion de contenu préjudiciable. Certains experts ont expliqué qu’en tant qu’entités privées, les services en ligne ont les moyens de faire leurs propres choix sur ce qu’ils autorisent et qui ils permettent sur leurs plateformes. Certains ont fait ressortir que le fait d’avoir un compte de médias sociaux est un privilège, et pas un droit. De nombreux experts ont insisté sur l’importance de créer un cadre qui encourage les services en ligne à repenser leurs modèles d’affaires, qui promeuvent actuellement le contenu préjudiciable que le régime cherche à limiter. Dans le cadre de cette discussion, la question à savoir s’il était possible de faire confiance aux services en ligne a émergé. Certains experts ont répété que même lorsqu’ils sont informés d’un contenu flagrant sur leurs plateformes, de nombreux services en ligne ne supprimeront pas le contenu en question. Ils ont expliqué qu’en tant qu’entités privées motivées par le profit, ces services agissent en réponse à la pression publique. La clé d’un cadre réussi, ont-ils affirmé, est d’obliger les services réglementés à agir de manière responsable par l’humiliation publique ou des mesures incitatives à réaliser des bénéfices. D’autres experts ont insisté sur le fait qu’une fois que les plateformes se sont engagées à agir, elles innovent assez bien et mettent en œuvre des solutions uniques. Ils ont expliqué qu’il est essentiel de trouver un terrain d’entente et qu’il serait possible de faire confiance à un environnement réglementaire où les services réglementés peuvent être amenés à réfléchir de façon créative à la façon d’assurer la sécurité de leurs plateformes pour les Canadiens.

Contraintes constitutionnelles

Plusieurs experts ont réaffirmé que tout cadre efficace serait limité par des considérations juridiques et qu’il devrait fonctionner à l’intérieur de ces limites. Certains experts ont fait référence à des dispositions législatives dans les cadres de sécurité en ligne d’autres administrations en guise d’exemples de mesures à éviter. Ils ont indiqué que ces dispositions obligent les services réglementés à tenir compte de la liberté d’expression dans l’exécution de leurs obligations, mais ne fournissent pas de détails sur la manière de le faire. Des experts ont expliqué que l’externalisation de l’obligation d’examiner les droits fondamentaux aux sociétés privées pose problème dans n’importe quel pays, mais qu’elle est particulièrement préoccupante au Canada, car, à leur avis, le Canada n’a pas une définition claire de ce que signifie la liberté d’expression. Ils ont indiqué qu’il serait particulièrement important d’indiquer le plus clairement possible dans la loi ce que les services réglementés sont censés faire quand ils se penchent sur les droits et libertés fondamentaux de leurs utilisateurs.

De nombreux experts ont mentionné qu’un cadre qui vise à imposer des obligations aux services pour supprimer des contenus qui ne sont pas illégaux susciterait des préoccupations au sujet de la Charte. Ils ont insisté sur le fait qu’une grande partie de ce contenu serait vraisemblablement admissible à titre d’expression protégée en vertu de l’alinéa 2b) de la Charte et qu’il ne pourrait donc pas, à juste titre, faire partie d’un régime réglementaire de retrait.

Répercussions de la loi

Les experts ont discuté des éventuelles répercussions des lois sur la sécurité en ligne au Canada et à l’étranger. Bon nombre d’entre eux ont insisté sur l’importance de rédiger un cadre qui soit le mieux adapté au contexte canadien et qui soit lié aux valeurs canadiennes. Certains ont expliqué que la loi canadienne établirait une norme à suivre pour les autres pays. D’autres ont averti que toute loi instaurée ne doit pas être susceptible d’être utilisée à mauvais escient par les gouvernements futurs. Certains experts ont insisté sur le fait que cette loi doit être facile à comprendre, car de nombreux Canadiens moyens la consulteront pour comprendre leurs droits en tant qu’utilisateurs menant leurs activités dans l’espace en ligne.

Thème B : Une approche réglementaire axée sur le risque

Obligations

De nombreux experts s’entendaient sur le fait que le cadre devrait adopter une approche fondée sur le risque qui obligerait les services réglementés à agir de manière responsable. Certains ont insisté sur l’importance de définir ce que signifient en pratique les expressions « obligation de diligence » ou « obligation d’agir de manière responsable » et d’expliquer la différence entre les deux concepts. D’autres ont fait valoir qu’il serait réellement utile d’articuler ce à quoi pourraient ressembler les évaluations du risque imposées aux plateformes. Ils ont insisté l’importance de présenter une norme ou une référence par rapport à laquelle on peut comparer le comportement des services réglementés et qui serait utilisée pour déterminer si un service s’acquitte de ses obligations.

Certains des experts qui ont plaidé en faveur d’une approche fondée sur le risque l’ont fait en adoptant une optique de sécurité des produits. Ils ont recommandé d’imposer des normes de rendement, par l’intermédiaire de règlements et de lignes directrices, et des évaluations de produits, par l’intermédiaire de rapports et de vérifications en matière de transparence, aux services réglementés.

Avantages

Les experts qui ont plaidé en faveur d’une approche réglementaire fondée sur le risque ont indiqué précisément quels avantages elle offrirait. Premièrement, ils ont expliqué que cela permettrait aux services réglementés d’être créatifs dans l’exécution de leurs obligations. Par exemple, ils ont expliqué qu’au lieu de prescrire ce que les plateformes devraient faire pour gérer la diffusion en direct de contenu préjudiciable, une approche fondée sur le risque permettrait aux plateformes d’élaborer leurs propres solutions, ce qui pourrait inclure la création d’une équipe d’intervention en cas d’incident ou la limitation de la diffusion en direct de contenus aux personnes d’un certain âge au Canada. Deuxièmement, ils ont déclaré qu’il permettrait d’instaurer un cadre adaptable qui peut suivre le rythme de l’évolution de la technologie et l’apparition de nouveaux préjudices. Ils ont fait ressortir qu’en vertu d’un tel cadre, il ne sera pas nécessaire de modifier la loi chaque fois que de nouveaux préjudice, ou services, apparaissent. Troisièmement, les experts ont déclaré qu’il était plus facile d’assurer le respect des obligations axées sur les processus que celles axées sur les résultats. Ils ont expliqué qu’il s’agit là d’un avantage important du cadre axé sur le risque, d’autant plus qu’il peut être difficile d’appliquer le régime aux services réglementés à l’étranger. Quatrièmement, les experts ont affirmé qu’un modèle fondé sur le risque donnerait une certaine marge de manœuvre pour définir le contenu et les obligations imposées. Cette marge de manœuvre est nécessaire, ont-ils déclaré, car certains contenus comme les discours haineux sont trop opaques pour être évalués en temps réel, tandis que le contenu d’exploitation sexuelle des enfants et les rediffusions en direct de la violence devraient être supprimés immédiatement ou empêchés même d’être publiés.

Certains experts ont souligné que, pour être efficace, une approche réglementaire fondée sur le risque devrait être appuyée par un ensemble d’outils robustes de conformité et d’exécution de la loi, qui comprendrait des obligations de transparence, des pouvoirs permettant la vérification et la surveillance et une application suffisante pour prévenir et gérer les cas de non-conformité. Ils ont expliqué que l’organisme de réglementation devrait être doté de pouvoirs d’audit afin d’enquêter sur la prise de décisions des services de façon ponctuelle et récurrente. Certains experts sont allés plus loin et ont demandé que le cadre oblige les services réglementés à fournir des renseignements sur les algorithmes et autres systèmes, structures et outils qu’ils utilisent pour distribuer du contenu aux utilisateurs. Ces experts ont expliqué qu’il serait impossible d’évaluer le profil de risque d’un service et la pertinence de sa gestion des risques sans cette information, ce qui est essentiel pour les tenir responsables.

Exigences en matière de retrait

Les experts ne s’entendaient pas sur la question de savoir si un cadre législatif et réglementaire devrait inclure des éléments d’un modèle réglementaire « de retrait » ex post. D’un côté, certains experts ont parlé de la façon dont l’autoréglementation ne fonctionne pas et ont insisté sur la nécessité de contraindre les services réglementés, en leur imposant des obligations spécifiques et des mesures d’exécution de la loi correspondantes, à réduire le contenu accablant dans un délai donné. Ces experts s’inquiétaient du fait que les contenus préjudiciables ne seraient pas supprimés et les victimes continueraient de souffrir sans une telle obligation. Ils ont préconisé que l’exigence de retrait ne s’applique qu’au contenu accablant comme le contenu d’exploitation sexuelle d’enfants ou la diffusion en direct d’une attaque ou d’un homicide, et qu’elle puisse être associée à la possibilité d’une procédure d’appel. D’autres experts ont indiqué qu’ils désapprouvaient fermement la création d’une obligation de retrait. Ils ont expliqué que ces régimes ne sont pas assez pratiques pour tenir compte de l’ampleur, de la portée et de la variabilité du contenu en question, car il devient difficile de fixer un calendrier précis. Ils ont déclaré qu’une période de vingt-quatre heures serait trop longue pour que la diffusion en direct d’un acte de violence circule en ligne, mais que la même période ne serait pas suffisante pour surveiller et évaluer le risque posé par d’autres contenus contextuels comme les discours haineux. Ils s’inquiétaient aussi des effets dissuasifs d’un modèle de retrait sur l’arbitrage et la liberté d’expression. Enfin, certains experts ont insisté sur le fait que la recherche montre que les obligations de retrait ne limitent pas la distribution de contenu préjudiciable. Au lieu de cela, expliquent-ils, les utilisateurs téléchargent immédiatement le contenu, et il est rapidement distribué par d’autres canaux, même s’il est retiré rapidement.

Certains experts ont recommandé d’adopter une approche fondée sur le risque pour les contenus licites, mais préjudiciables, et d’adopter une approche de réduction pour les contenus illégaux ou plus accablants. Ils ont expliqué que cela pourrait assurer le retrait immédiat du contenu accablant de la circulation tout en encourageant l’élaboration de normes de sécurité uniques pour le contenu légal, mais préjudiciable.

De multiples experts ont indiqué que, quel que soit le cadre choisi, il serait extrêmement important qu’il n’incite pas à un système général de surveillance.

Services réglementés

Certains experts ont fait valoir qu’une approche fondée sur le risque pourrait englober un large éventail de services et de préjudices sans avoir à être détaillée. Ils ont déclaré qu’en vertu d’une telle approche, il ne serait pas nécessaire de limiter les services réglementés par type, taille ou conception, car tous les services en ligne peuvent présenter des risques et, à ce titre, devraient avoir la responsabilité de les gérer. Les experts ont expliqué qu’en vertu d’un tel cadre, les services situés au bas de l’échelle d’Internet seraient obligés de réfléchir à la sécurité de leur service d’une manière compatible avec leur fonctionnalité. Ils ont affirmé que ces services seraient tenus d’élaborer des politiques et de justifier leurs décisions opérationnelles et leurs mesures de rendement spécifiques, tout comme les services réglementés situés en haut de l’échelle. On a mentionné que des lois concises et plus courtes, calquées sur le modèle de la Loi canadienne sur la santé au moment de son instauration, axées sur une « obligation de diligence » fondée sur le risque pourraient atteindre les objectifs de portée de la gamme de services et de préjudices en ligne, sans trop définir et surcharger le régime.

Thème C : Définition et catégorisation du contenu préjudiciable

Éventail de préjudices

La plupart des experts, voire la totalité de ceux-ci, ont affirmé que la gamme des préjudices devait être élargie au-delà des cinq types de contenu énumérés dans les feuilles de travail. Ils ont insisté sur le fait que les cinq types de contenu proposés précédemment étaient trop limités. Au lieu de cela, ils ont déclaré que le cadre devrait inclure un large éventail de contenus illégaux et légaux, mais préjudiciables. Plusieurs experts ont indiqué qu’une courte liste de préjudices serait incompatible avec un régime réglementaire ex ante fondé sur l’« obligation de diligence » et axé sur le risque. Ils ont mis en garde contre l’adoption d’une approche « encyclopédique », qui aurait pour but de réglementer adéquatement les risques et les préjudices au moyen d’une liste de contenus préjudiciables qui ne cesse de croître au fil du temps.

Certains experts ont expliqué qu’il faudrait inclure d’autres types de contenu préjudiciable si le cadre devait délimiter des objets précis de la réglementation. il a été mentionné qu’il était important d’inclure un éventail de contenus préjudiciables dans la portée du cadre, notamment, la fraude, la cyberintimidation, le partage de masse d’incidents traumatiques, le contenu diffamatoire, la propagande, la fausse publicité et les communications politiques trompeuses, le contenu ou les algorithmes qui contribuent à une image corporelle irréaliste, ou qui créent une pression pour se conformer, ainsi que le contenu ou les algorithmes qui contribuent à l’isolement ou entraînent une baisse de concentration ou de mémoire, et de la capacité de se concentrer.

De nombreux experts ont également expliqué qu’il serait important de préciser quels types de dommages, s’il y a lieu, seraient exclus dans un cadre fondé sur le risque. Certains ont affirmé que le cadre pourrait chercher à ne pas gérer certains types de contenu illégal, comme les biens de contrefaçon ou les violations de droits d’auteur. La récente création d’un délit pour le harcèlement en ligne a été citée à titre d’exemple de la difficulté qu’il y aurait à étendre la portée des préjudices réglementés de manière si large.

Portée limitée ou étendue

Les membres du groupe d’experts ne s’entendaient pas sur la question de savoir s’il convient de définir des types spécifiques de contenu préjudiciable ou d’utiliser le concept de risque pour capter un large éventail de contenu.

Certains ont fait valoir que la nécessité de préciser le contenu découlait du modèle de retrait proposé antérieurement par le gouvernement. Ils ont déclaré qu’une telle spécificité n’était pas nécessairement prévue dans une approche fondée sur le risque. Ils ont fait valoir que le cadre ne devrait pas comporter de catégories ou de définitions détaillées du contenu préjudiciable. Ils ont plutôt insisté sur le fait qu’il fallait mettre l’accent sur des mesures fondées sur le risque et sur l’établissement de normes. Ils ont expliqué qu’il serait important que le cadre ne détermine pas au préalable ce que les services réglementés trouveront en termes de contenu préjudiciable sur leurs plateformes. Ils ont également fait ressortir qu’il est impossible de prévoir tous les préjudices. À ce titre, ont-ils déclaré, le cadre devrait donner aux services les moyens de cerner et de gérer les préjudices eux-mêmes de façon continue, et les encourager à le faire.

D’autres ont fait valoir qu’il fallait définir et catégoriser le contenu préjudiciable. Ils ont expliqué qu’il serait extrêmement important de définir le préjudice. Ils ont déclaré que la définition des catégories de contenu offre l’avantage important de donner une orientation aux services en ligne sur le risque qu’ils sont obligés de rechercher, de modérer et de gérer. Ils ont fait valoir qu’un cadre législatif et réglementaire ne pouvait pas simplement dire aux services en ligne de supprimer le contenu préjudiciable en général sans fournir d’orientation et de définition. Ces experts ont expliqué qu’il y aurait une énorme incertitude quant aux obligations d’une plateforme, ainsi qu’aux droits des victimes à demander réparation, si la loi et le règlement n’étaient pas clairs et précis. Ils ont insisté sur le fait que les catégories de contenu seraient inévitables et nécessaires, et qu’elles devraient être un facteur dans la façon dont le groupe d’experts définit les objets de la réglementation.

Définition du contenu préjudiciable

De nombreux experts s’entendaient pour dire qu’il serait difficile de définir la portée du contenu préjudiciable à réglementer. Certains ont fait valoir qu’une grande quantité de contenu n’est pas préjudiciable à première vue. Ils ont pris pour exemple les images d’exploitation sexuelle des enfants. Ils ont expliqué que des vidéos d’abus combinant de multiples images différentes qui, à elles seules, ne dépeignent pas un préjudice apparent. Lorsque regroupées, toutefois, le préjudice est clair et apparent. Certains experts ont insisté sur l’importance de s’appuyer sur les définitions juridiques existantes pour les contenus comme les discours haineux et de ne pas aller au-delà des lois établies. D’autres experts ont insisté sur le fait que les définitions actuelles de certains types de contenu dans la législation canadienne sont problématiques. Ils ont fait état de préoccupations quant à la façon dont le terrorisme, l’extrémisme violent et la radicalisation violente sont définis et pris en compte dans le droit pénal canadien. En s’appuyant sur les définitions existantes, expliquent-ils, le cadre risquerait d’entraîner une censure biaisée de certains types de contenus.

De nombreux experts ont déclaré qu’il serait important de trouver un moyen de définir le contenu préjudiciable d’une manière qui intègre les expériences vécues et l’intersectionnalité. Ils ont expliqué qu’un certain nombre de préjudices en ligne sont illustrés par des questions comme la colonisation et la misogynie, et qu’un cadre réglementaire devrait reconnaître ces facteurs.

Contenu sur l’exploitation sexuelle des enfants

Certains experts ont mentionné qu’il faudrait peut-être établir un cadre particulier pour des contenus particulièrement accablants comme la pornographie juvénile ou l’exploitation sexuelle des enfants en général. Ils ont expliqué que les équités liées à l’élimination de la pornographie juvénile sont différentes des autres types de contenu, et dans ce contexte, ce matériel ne revêt tout simplement aucune importance pour elles. En comparaison, d’autres types de contenus comme les discours haineux peuvent bénéficier de la protection de la Charte dans certains contextes. Les experts ont expliqué qu’une obligation de retrait assortie d’un calendrier précis serait probablement la plus logique pour la pornographie juvénile.

Mésinformation et désinformation

De nombreux experts se sont dits préoccupés par la mésinformation et la désinformation, et ont insisté sur le fait qu’elles n’étaient pas incluses dans les cinq types de contenus préjudiciables proposés. Ils ont expliqué qu’elles devraient être examinées dans la mesure où elles ont de graves effets préjudiciables sur les Canadiens et la société dans son ensemble. Ils ont mentionné que la capacité des Canadiens de discuter de désaccords fondamentaux en matière de politiques a été gravement touchée et complexifiée par le phénomène de la désinformation. Ils ont expliqué qu’elle érode les fondements de la démocratie, polarise les gens et réduit le dialogue social aux rencontres conflictuelles.

Différenciation entre le contenu illégal et contenu légal, mais préjudiciable

De nombreux experts ont recommandé que le cadre différencie les contenus illégaux et les contenus légaux, mais préjudiciables, imposant des obligations distinctes aux services réglementés pour chaque type de contenu. Ils ont fait valoir que le contenu illégal devrait être supprimé et ont insisté sur le fait que des complications surviennent lorsque l’on examine la façon de traiter le contenu légal, mais préjudiciable. Ils ont déclaré que l’une des plus grandes erreurs commises par le Royaume-Uni dans son projet de loi sur la sécurité en ligne a été d’essayer de s’attaquer au contenu légal, mais préjudiciable, en recourant à des obligations onéreuses. Certains ont suggéré d’adopter une approche plus souple pour ce type de contenu légal, mais préjudiciable, fondée sur l’autorégulation ou l’établissement de normes.

D’autres experts ont expliqué qu’il serait difficile de faire la distinction entre contenu illégal et contenu légal, mais préjudiciable, et ont exprimé leur préoccupation quant à l’externalisation de la fonction judiciaire de détermination de la légalité du contenu vers des organismes privés (c’est-à-dire les services en ligne). Ils ont fait valoir qu’il est utile de définir des obligations différentes fondées sur le risque en fonction d’un éventail de types de contenu. Ils ont observé que les différents types de contenu présentent des défis uniques : certains sont plus facilement reconnaissables pour leur préjudice qu’ils causent (p. ex., la pornographie juvénile), tandis que d’autres exigent des degrés variables d’analyse pour déterminer s’ils sont préjudiciables (p. ex., les discours haineux, l’incitation à la violence, la désinformation et la diffamation). Compte tenu de ces réalités et de ces défis, il a été proposé de fonder la catégorisation du contenu de la réglementation sur d’autres facteurs, au-delà de la légalité.

Le lien entre le contenu et le préjudice

Les experts ne s’entendaient pas sur le lien entre le contenu préjudiciable et les préjudices réels. Certains experts ont indiqué qu’il existe une hypothèse générale selon laquelle le contenu doit naturellement causer des répercussions préjudiciables pour la simple raison qu’il existe en ligne. Ils ont déclaré qu’il n’y avait pas suffisamment de recherches sur la façon dont le contenu est reçu et son incidence sur les personnes. Par conséquent, ils ont expliqué qu’il est difficile d’établir ce lien. D’autres experts ont déclaré qu’il existe des preuves de l’existence d’un lien entre l’exposition à la violence en ligne et les comportements violents hors ligne. Ils ont fait valoir que la recherche montre que l’exposition au contenu extrémiste en ligne est associée à une augmentation des attitudes extrémistes. Ils ont affirmé qu’il existe un lien catalytique, mais non causal, entre le contenu et les comportements extrémistes. Ils ont également déclaré que de nouvelles recherches émergentes montrent que la combinaison de l’isolement social et de la forte consommation de contenu violent sur Internet est un facteur de risque de gestes violents.

Le préjudice comme subjectif

Certains experts ont donné des exemples de traumatismes sur lesquels la société n’a que peu de vocabulaire et une capacité limitée de gérer. Ils ont expliqué que le monde en ligne peut exacerber ces problèmes lorsque les utilisateurs rencontrent des contenus qui ne sont peut-être pas préjudiciables pour quelqu’un d’autre, mais qui peuvent être des éléments déclencheurs pour eux. Les experts ont insisté sur le fait qu’une définition du contenu préjudiciable doit comprendre la façon dont ce matériel est individualisé et contextuel. Ces experts ont expliqué que le préjudice est dicté par la perspective. Par exemple, une personne racisée ayant une expérience vécue des répercussions psychologiques du racisme et de son incidence systémique aurait probablement une perspective différente de ce qui constitue un contenu préjudiciable par rapport à un homme blanc cisgenre. D’autres ont insisté sur le fait que le préjudice semble différent pour les enfants par rapport aux adultes. Beaucoup ont convenu qu’il serait important d’examiner la variété des utilisateurs présents en ligne et de reconnaître que certains sont plus vulnérables que d’autres à des types de contenu spécifiques.

Thème D : Mécanismes de recours

La plupart des experts ont dit que les Canadiens ont besoin d’un moyen de faire entendre leurs griefs au sujet du comportement des plateformes. Certains ont insisté sur le fait que les victimes doivent avoir les outils nécessaires pour déclencher le processus de suppression de contenu. Ils ont expliqué qu’il est très difficile pour les utilisateurs de s’y retrouver dans le processus d’appel sur de nombreux services en ligne. Ils ont expliqué que dans de nombreux cas, les acteurs légitimes et les mouvements de protestation sont réprimés sans possibilité de recours. Les experts ont donc insisté sur l’importance pour les obligations d’exiger aux services de fournir des processus d’appel conviviaux, rapides, transparents et pleinement fonctionnels.

Certains experts ont suggéré d’exiger à chaque service réglementé d’avoir son propre ombudsman dans le cadre de ce que signifie être une entreprise responsable. Ils ont expliqué que de telles exigences ne seraient pas différentes de celles qui obligent les entreprises à avoir des responsables de la protection de la vie privée, comme l’exige le règlement général de l’Union européenne sur la protection des données. Certains experts ont déclaré qu’un ombudsman interne devrait être complété par un bureau externe indépendant du gouvernement et de services réglementés. Ils ont expliqué que le bureau serait doté de personnes possédant l’expertise nécessaire pour évaluer le contenu propre au contexte. D’autres experts se sont demandé si un conseil des médias sociaux serait un moyen approprié de fournir aux victimes un tel recours.

Thème E : Participation externe des parties prenantes

Les experts ont également parlé de participation des parties prenantes des intervenants à venir. Certains ont insisté sur la nécessité de consulter les parties prenantes, de faire valoir les avantages d’entendre les expériences vécues de différentes communautés et d’en apprendre des intervenants de l’industrie sur leurs capacités et leurs contraintes.

De nombreux experts se sont dits préoccupés par le court laps de temps qui leur avait été accordé pour rencontrer les parties prenantes externes. Ils ont expliqué qu’il sera nécessaire, mais difficile, de dialoguer avec diverses parties prenantes, y compris les groupes de victimes, la société civile et l’industrie, dans ce court laps de temps.

Prochaines étapes

La prochaine séance du groupe consultatif d’experts aura lieu le vendredi 29 avril de 13 h à 16 h HAE. Les experts discuteront de la feuille de travail sur les obligations durant cette session.

Détails de la page

Date de modification :