Résumé de la huitième séance : désinformation
Le Groupe consultatif d'experts sur la sécurité en ligne a tenu sa huitième session le 3 juin de 13h00 à 16h00 EDT sur la désinformation. Onze membres étaient présents. Des représentants des ministères du Patrimoine canadien, de la Justice, de l'Innovation, des Sciences et du Développement économique, de la Sécurité publique, des Femmes et de l'Égalité des sexes et du Bureau du Conseil privé se sont joints au Groupe consultatif. Des représentants de la Gendarmerie royale du Canada étaient également présents.
Le présent résumé donne un aperçu de la huitième session. Conformément au mandat du groupe consultatif, ces sessions fonctionnent selon la règle de Chatham House. Ainsi, ce résumé n'attribue pas les opinions exprimées à un membre du groupe ou à une organisation en particulier. Il présente les points de vue exprimés au cours de la session, signale les domaines d'accord, de désaccord et de discussion, et organise la discussion en catégories thématiques. Il ne doit pas être considéré comme une récitation verbatim de la discussion.
La feuille de travail de la session comprenait deux objectifs :
- Obtenir des points de vue sur le rôle du gouvernement dans la lutte contre la désinformation.
- Explorer de nouvelles façons de traiter et d'atténuer les effets de la désinformation.
Ce résumé rend compte des points de vue soulevés par rapport à ces objectifs et organise les points de discussion en fonction de thèmes spécifiquesNote de bas de page 1.
Thème A: Comprendre la magnitude du défi
Les experts ont affirmé que la désinformation n'est pas un nouveau problème, mais que l'émergence des services en ligne l'a amplifié à un degré sans précédent. Les experts ont noté que les informations délibérément trompeuses ou fausses ont toujours été utilisées pour promouvoir des intérêts politiques, sociaux ou économiques. Cependant, ces dernières années surtout, les experts ont déclaré que la désinformation est devenue plus facile à créer et à partager grâce aux services en ligne et aux médias sociaux.
Le groupe consultatif d'experts a convenu que le problème s'est amplifié pour devenir l'une des formes les plus urgentes et les plus nuisibles de comportement malveillant en ligne. Les experts ont convenu que la désinformation a de graves conséquences immédiates, à moyen et à long terme. Ils ont discuté de la manière dont la désinformation peut être utilisée pour inciter à la haine et à la violence, miner la démocratie et le discours démocratique, réduire la confiance entre les citoyens et menacer la sécurité nationale et la santé publique. Ils ont souligné la façon dont la désinformation a été utilisée dans le contexte de la pandémie de COVID-19 et pour saper la démocratie aux États-Unis comme exemples particuliers des menaces graves et immédiates que la désinformation représente. Ils ont ensuite expliqué comment les effets de la désinformation sont insidieux - ses effets peuvent ne pas être immédiatement apparents, mais érodent lentement la confiance et l'inclusion sociale.
Certains experts ont introduit la notion selon laquelle la désinformation porte atteinte aux droits des utilisateurs. Ils ont affirmé qu'en polluant l'environnement informationnel avec des informations fausses, trompeuses et/ou mensongères, la désinformation porte atteinte au droit des citoyens de se forger une opinion en toute connaissance de cause. Certains experts ont souligné que la désinformation porte atteinte à la "liberté d'attention" en attirant et en détournant l'attention des citoyens sur des informations intentionnellement trompeuses ou mensongères.
Les membres ont examiné comment la désinformation affecte les enfants de manière disproportionnée. Ils ont noté que les enfants sont plus vulnérables à la désinformation parce qu'ils sont plus impressionnables que les adultes et que leur exposition aux environnements en ligne est quasi-constante. Les membres ont également cité des exemples où la désinformation a été utilisée comme un moyen d'abuser des enfants. Ils ont expliqué comment la désinformation est utilisée pour attirer et préparer les enfants, pour les revictimiser, les intimider, les harceler et justifier les abus contre les mineurs.
La plupart des experts ont convenu que quelque chose devait être fait, mais que le rôle du gouvernement devait être soigneusement circonscrit pour protéger les droits fondamentaux. Compte tenu de la gravité et de l'urgence des dommages causés par la désinformation, les experts ont fait valoir que la législation sur la sécurité en ligne devait prendre en compte la désinformation dans une certaine mesure. Ces experts ont fait valoir qu'en n'incluant pas la désinformation dans l'approche, le gouvernement indiquerait qu'elle est moins importante que d'autres préjudices - une notion avec laquelle les experts sont largement en désaccord. Cependant, la plupart des experts ont convenu que le gouvernement ne peut pas décider de ce qui est vrai ou faux en ligne, ni déterminer l'intention derrière la création ou la diffusion de fausses informations. Le gouvernement ne peut pas non plus censurer un contenu sur la base de sa véracité, aussi nuisible soit-il. Agir ainsi porterait atteinte aux droits fondamentaux inscrits dans la Charte des droits et libertés.
Thème B: Faut-il définir la désinformation dans la législation?
La plupart des experts ont exprimé une extrême prudence à l'égard de la définition de la désinformation dans la législation. Les experts ont fait valoir que le processus même de définition de la désinformation dans la législation est problématique pour un certain nombre de raisons. Premièrement, définir la désinformation mettrait le gouvernement en position de faire la distinction entre ce qui est vrai et ce qui est faux, ce qu'il ne peut tout simplement pas faire. Deuxièmement, les experts ont noté que la plupart des définitions de la désinformation contiennent un élément d'intention. Ils ont souligné que la détermination de l'intention est problématique, tant sur le plan pratique que sur le plan des principes. Troisièmement, les experts ont souligné que les tentatives troublées des États-Unis de traiter la désinformation par le biais d'un comité de désinformation (« Disinformation Board ») montrent que les définitions de la désinformation créées par le gouvernement ne peuvent résister à l'examen du public. Enfin, les experts ont noté que le terme de désinformation lui-même n'est ni statique ni absolu. Ils ont souligné que la nomenclature pour désigner ce problème est toujours en évolution, comme le montrent les définitions fluctuantes de "désinformation", "misinformation", "malinformation" et "fake news". Ces experts ont fait valoir qu'en essayant de codifier une définition aussi dynamique dans la législation, celle-ci risquerait de devenir rapidement obsolète.
Certains experts ont noté que, dans certains cas, la désinformation est plus facile à conceptualiser et à traiter. Ces experts ont cité les campagnes de désinformation menées par des acteurs étatiques étrangers comme un exemple où le gouvernement pourrait plus facilement identifier et traiter la désinformation de manière justifiable. Dans ces cas où les acteurs et les intentions derrière la désinformation sont clairs et où des menaces pour la sécurité nationale sont en jeu, les experts ont expliqué que le gouvernement peut agir de manière justifiée par le biais de la législation.
Thème C: Lutter contre la désinformation et ses effets à travers une approche basée sur le risque
Les experts ont examiné comment une approche législative basée sur le risque pourrait traiter la désinformation. Ils ont affirmé que le fondement juridique de la lutte contre la désinformation est le même que celui des autres préjudices en ligne, à savoir la formalisation d'une obligation d'agir de manière responsable pour les services. Les services seraient ainsi tenus de lutter contre les contenus préjudiciables en ligne, dont la désinformation, en procédant à des évaluations des risques liés aux contenus susceptibles de causer des dommages physiques ou psychologiques importants aux personnes.
Les experts ont convenu qu'une législation fondée sur les risques pourrait traiter la désinformation en ciblant certains comportements. Ils ont étudié les formes de "comportement inauthentique coordonné" qui sont utilisées pour créer, diffuser et amplifier la désinformation - ils ont cité comme exemples l'utilisation de robots, de réseaux de robots, de comptes inauthentiques et de "deepfakes". Les experts ont affirmé qu'une approche de la réglementation axée sur les systèmes pourrait définir des règles ou des normes visant ces pratiques dans le but de limiter les outils utilisés par les acteurs malveillants. En se concentrant sur les comportements par le biais d'une approche systémique, les experts ont expliqué que la législation n'aurait pas besoin de déterminer ce qui constitue la désinformation ou de déterminer ce qui est vrai ou faux.
Toutefois, quelques experts ont fait valoir qu'une approche systémique axée sur le comportement présente toujours des risques. Ces experts ont fait valoir qu'afin de se rapprocher des comportements et des mécanismes utilisés pour créer et diffuser la désinformation, les services devraient toujours identifier la désinformation, et donc déterminer ce qui est faux. Ils se demandent comment les services en ligne pourraient savoir quels comportements aborder sans détecter et juger de la véracité du contenu en premier lieu.
D'autres experts ont suggéré que la législation cible les comportements inauthentiques en se concentrant sur leurs effets, plutôt que sur leur véracité. Selon eux, tout comportement inauthentique réglementé devrait être accompagné d'un effet négatif réel ou prévisible sur, par exemple, la protection de la santé publique, les mineurs, le discours civique ou les processus électoraux et la sécurité publique. Ces experts ont fait valoir qu'en mettant l'accent sur les effets, les services n'auraient pas à déterminer la vérité ou la fausseté.
Quelques experts ont réfléchi à la manière dont le fait de donner aux utilisateurs un plus grand contrôle sur ce qu'ils voient en ligne pourrait contribuer à atténuer le problème. Ces experts ont suggéré que les exigences visant à améliorer les contrôles des utilisateurs et le droit des utilisateurs à façonner leurs propres expériences en ligne pourraient contribuer à lutter contre la propagation et l'impact de la désinformation. Grâce à ces outils, les utilisateurs pourraient filtrer de leurs flux les sources typiquement connues d'informations trompeuses ou manipulatrices. Inversement, certains experts ont suggéré que les contrôles des utilisateurs sont une arme à double tranchant - les utilisateurs pourraient également contrôler les contenus ou les récits chargés d'informations fausses, trompeuses et/ou mensongères.
Certains experts ont souligné la nécessité d'aborder les éléments financiers et économiques qui se cachent derrière la désinformation. Ces experts ont affirmé que la désinformation peut être lucrative lorsqu'elle est utilisée dans des pratiques de marketing et de publicité. Ils ont suggéré que les efforts visant à démonétiser la désinformation pourraient également jouer un rôle dans une approche systémique d'atténuation des risques. Toutefois, ils ont reconnu que cette voie pourrait se situer au-delà du champ d'application de la législation sur la sécurité en ligne si les pratiques publicitaires ne sont pas couvertes. Certains ont suggéré que les lois sur la publicité et le marketing sont des outils plus appropriés pour démonétiser la désinformation.
Certains membres ont affirmé que les préjudices causés par la désinformation pourraient être traités non pas en définissant la désinformation elle-même, mais en ciblant les préjudices qu'elle crée ou amplifie. Les experts ont noté que la désinformation est utilisée comme un outil pour infliger d'autres formes de préjudice, et que la législation devrait se concentrer sur ces effets néfastes plutôt que sur la désinformation elle-même. Par exemple, la désinformation peut être utilisée pour inciter à la violence ou à la haine - certains experts ont fait valoir qu'en exigeant que les services traitent de la violence ou de la haine, la législation traite déjà des effets de la désinformation. Ces experts ont suggéré que la législation prenne en compte les autres effets néfastes de la désinformation et étudie les moyens d'y remédier plutôt que de traiter la désinformation comme un préjudice "autonome". Ils ont également fait remarquer que certaines formes de désinformation sont déjà traitées dans d'autres lois, citant en exemple la fraude, la diffamation et l'ingérence électorale.
Certains ont fait valoir que la désinformation et les préjudices qui y sont liés pourraient être traités par des codes de pratique plutôt que par la législation. Ces experts ont expliqué comment des codes de pratique non contraignants, élaborés en collaboration entre les services en ligne, la société civile et un organisme de réglementation, pouvaient traiter les préjudices sans porter atteinte aux droits fondamentaux. Ils ont mentionné comment des codes de pratique visant les préjudices liés à la désinformation, notamment les discours de haine et l'intégrité électorale, pourraient contribuer à résoudre bon nombre des risques posés par la désinformation. Les experts se sont demandé si un code de bonnes pratiques spécifique à la désinformation serait souhaitable. Selon eux, si les codes de bonnes pratiques pouvaient traiter tous les préjudices causés par la désinformation, voire un grand nombre d'entre eux, un code de bonnes pratiques spécifique à la désinformation ne serait peut-être pas nécessaire.
S'inspirant de la Loi sur les services numériques en Europe, certains experts se sont demandé s'il ne faudrait pas renforcer les mesures de lutte contre la désinformation en temps de crise. Ces experts ont examiné comment la loi sur les services numériques crée un mécanisme permettant à la Commission européenne de prendre des mesures plus énergiques pour lutter contre la désinformation en temps de crise. Les experts ont noté comment cette disposition est liée aux événements en cours en Ukraine et aux efforts de la Russie pour diffuser de fausses affirmations dans le but de justifier son agression. Les experts se sont demandé si une telle disposition serait nécessaire ou souhaitable au Canada, et si le gouvernement devrait pouvoir prendre des mesures plus énergiques en cas d'élections ou de crises de santé publique.
Les experts ont exprimé leur inquiétude quant à la manière dont toute mesure visant à lutter contre la désinformation pourrait être reproduite ou utilisée de manière abusive par des gouvernements qui ne respectent pas les droits fondamentaux. Un large consensus s'est dégagé sur le fait que toute législation ciblant la désinformation doit être "à l'épreuve de la démocratie". Cela signifie que le gouvernement doit s'assurer que les dispositions de la législation ne peuvent pas être utilisées de manière abusive ou détournée par de futurs gouvernements au Canada ou par des régimes autoritaires dans d'autres pays pour justifier la censure du journalisme et des critiques légitimes. Cependant, certains experts ont noté que si les nouvelles règles pour les services en ligne visent uniquement à appliquer la loi existante à l'environnement en ligne, le problème de l'étanchéité à la démocratie est moins important.
Les experts ont réexaminé la question de savoir si les services en ligne devaient être tenus responsables du contenu qu'ils hébergent. Si quelques experts ont souligné que la responsabilité est un outil important pour lutter contre les contenus préjudiciables en ligne, la plupart d'entre eux ont convenu qu'une telle mesure n'est ni pratique ni justifiable. Les partisans de la responsabilité affirment que les services en ligne, ou ceux qui cherchent à lancer un service en ligne, doivent réfléchir attentivement au potentiel de nuisance - la responsabilité serait un puissant moyen de dissuasion pour ceux qui laisseraient des contenus préjudiciables se répandre sur leurs services. Toutefois, la plupart des experts ont convenu que la responsabilité porterait atteinte aux principes fondamentaux de l'internet et irait à l'encontre des accords commerciaux internationaux. Ils ont également fait valoir que la responsabilité pourrait être incompatible avec une approche fondée sur le risque qui repose sur une gestion ouverte et de bonne foi du préjudice entre les entités réglementées et un régulateur. Si les services sont tenus pour responsables, ont fait valoir les experts, ils seront moins enclins à partager et à examiner les risques qu'ils présentent par crainte d'une action en justice.
Quelques experts ont suggéré que la législation sur la sécurité en ligne devrait tenir compte du droit provincial. Ces experts ont noté qu'il pourrait y avoir un chevauchement potentiel avec les mécanismes provinciaux qui concernent la responsabilité civile dans les environnements en ligne. Ils ont affirmé que la nouvelle législation devrait être compatible et fonctionner de concert avec ces autres systèmes. Ils ont noté que cela pourrait être particulièrement important pour les documents relatifs à l'exploitation sexuelle des enfants et le partage non consensuel d'images intimes, pour lesquels des mécanismes civils provinciaux pourraient déjà exister. Ils ont examiné quels autres mécanismes pourraient exister en matière de désinformation dans les lois provinciales et fédérales, en citant la diffamation et les dispositions du Code criminel relatives aux discours haineux.
Certains experts ont fait valoir qu'en matière d'évaluation des risques, les enfants ont besoin d'une plus grande protection. Ces experts ont souligné que les préjudices causés aux enfants sont différents, tant par leur nature que par leur gravité, des préjudices causés aux adultes. Ils ont mentionné comment certains comportements et mécanismes, notamment l'anonymat et les comportements inauthentiques, présentent des degrés de risque plus élevés pour les enfants. Ils ont demandé que les services en ligne soient tenus d'identifier et d'évaluer les risques spécifiques aux enfants, y compris les risques liés à la désinformation.
Thème D: Le rôle des rapports et des audits de transparence
Les experts ont discuté des exigences en matière de transparence et d'audit à la fois à un niveau général et dans le contexte de la désinformation. Dans l'ensemble, les experts ont convenu qu'une plus grande transparence est bénéfique, mais que la législation doit obliger à fournir les bonnes informations pour avoir un impact significatif. Selon ces experts, les services en ligne ne partagent pas d'informations cruciales sur leurs processus et la manière dont ils traitent les préjudices, y compris la désinformation, ce que la législation devrait les obliger à faire. Ils ont également souligné que toute exigence de transparence doit veiller tout particulièrement à respecter la vie privée des utilisateurs.
Les experts ont souligné la nécessité pour les services en ligne de partager des informations qualitatives en plus des données quantitatives. Les informations qualitatives, selon les experts, devraient inclure les processus de réflexion et la justification des décisions et des modifications apportées aux services, les organigrammes et une explication de la manière dont les règles relatives aux services en ligne ont évolué au fil du temps. Ces informations qualitatives, selon les experts, fourniraient un contexte indispensable pour comprendre le fonctionnement des services en ligne au-delà des points de données.
Les experts ont convenu que les rapports de transparence actuels des services en ligne ne sont pas assez détaillés. Ils ont souligné que les services en ligne indiquent le pourcentage de contenu préjudiciable qu'ils suppriment, mais qu'ils n'incluent pas d'informations sur le temps nécessaire à la suppression de ce contenu. Ils ont également noté que, dans de nombreux cas, les services en ligne s'engagent à prendre certaines mesures pour résoudre les problèmes identifiés dans les rapports de transparence, mais ne sont pas tenus responsables de la mise en œuvre de ces mesures. Les experts ont exprimé une préoccupation générale que les rapports de transparence sont trop souvent utilisés comme un outil pour convaincre les gouvernements et le public que les services font quelque chose contre les préjudices. Les experts ont fait valoir que les rapports de transparence devraient plutôt informer les utilisateurs des processus de création des environnements en ligne avec lesquels ils interagissent et devraient explorer les risques associés à ces services de manière honnête.
Les experts se sont inquiétés de savoir si et comment les petites entreprises seraient en mesure de se conformer aux exigences de transparence. Ils ont affirmé que certains petits services n'ont peut-être pas les ressources, la technologie ou l'expertise nécessaires pour compiler et publier des rapports de transparence détaillés. Pour cette raison, les experts ont généralement convenu que les obligations liées à la transparence doivent être flexibles pour tenir compte de la fonction et de la taille des services réglementés. Ils ont également examiné le rôle qu'un régulateur pourrait jouer en soutenant les services plus petits à cet égard.
Les experts ont discuté de la manière dont les obligations de transparence pourraient éclairer le fonctionnement continu du cadre législatif et réglementaire, notamment dans le contexte de la désinformation. Ils ont fait valoir que les informations qualitatives et quantitatives fournies par les services en ligne pourraient être utilisées pour connaître les mécanismes et les comportements actuels et en évolution en matière de désinformation. Selon certains experts, c'est important car les législateurs et les chercheurs disposent de très peu d'informations sur la manière dont la désinformation est créée, diffusée et amplifiée en ligne. Grâce aux informations et aux enseignements glanés dans le cadre de rapports détaillés sur la transparence, la législation ou la réglementation pourrait élaborer des mécanismes spécifiques ciblés pour lutter contre les différentes formes et les différents effets de la désinformation. Quelques experts ont cité l'Observatoire européen des médias numériques comme modèle pour l'utilisation des données afin d'obtenir des informations sur la manière de résoudre ces problèmes.
Cependant, les experts ont identifié les effets négatifs potentiels des rapports de transparence. Les experts ont discuté de trois façons dont les rapports de transparence pourraient avoir des effets négatifs. Tout d'abord, ils ont souligné que les acteurs malveillants peuvent utiliser les rapports de transparence pour apprendre comment les services identifient certaines formes de contenu préjudiciable dans le but de contourner ou d'exploiter ces méthodes. Deuxièmement, ils ont réaffirmé que toute exigence, même les rapports de transparence, doit être "à l'épreuve de la démocratie". Il serait important, selon ces experts, que les exigences ne puissent pas être utilisées avec des intentions malveillantes ou cooptées par des gouvernements autoritaires pour porter atteinte aux droits fondamentaux. Enfin, ils ont exprimé leurs préoccupations quant à la structure incitative des rapports de transparence. Il est important, selon les experts, que les services en ligne ne soient pas dissuadés de partager les résultats des rapports de transparence lorsqu'ils aboutissent à de nouvelles conclusions sur les préjudices potentiels.
Les experts ont examiné la question de savoir qui doit avoir accès à quelles informations provenant des services en ligne. Ils ont examiné quelles informations devaient être partagées avec le régulateur, les chercheurs et le public. Les experts ont discuté de la manière dont les évaluations des risques et les plans d'atténuation devraient être partagés avec l'organisme de réglementation, mais peut-être pas avec le public. Les experts ont averti que si les évaluations des risques et les plans d'atténuation sont publiés ouvertement, ils pourraient être utilisés par des acteurs malveillants pour contourner les mesures d'atténuation des risques. Pour le régulateur et les chercheurs, les experts ont exploré la notion de régime d'accès privilégié qui fournit à ces parties des données utiles tout en tenant compte de la sensibilité commerciale et de la complexité technique de ces données. Enfin, certains experts ont souligné que les informations mises à la disposition du public devraient informer les utilisateurs des processus mis en place pour déterminer ce qu'ils voient en ligne et devraient inclure des données et des informations relatives à la publicité.
Les experts ont étudié la meilleure façon de calibrer et de structurer la fonction d'audit du régulateur. Certains experts considèrent les pouvoirs d'audit comme une forme de transparence, et que les pouvoirs d'audit devraient être utilisés lorsque les exigences de transparence sont insuffisantes ou ne sont pas respectées. Ils ont examiné les vastes pouvoirs de vérification prévus par la Loi sur les services numériques de l'Union européenne, en vertu de laquelle les autorités peuvent vérifier "tout ce qu'elles jugent nécessaire", et se sont demandé si une approche similaire serait appropriée pour le Canada. Quelques experts se sont également inquiétés de la possibilité que la nouvelle législation crée par inadvertance une nouvelle "industrie de l'audit" au Canada pour les services en ligne.
Certains experts ont fait valoir que la transparence des rapports et des audits est essentielle dans la lutte contre l'abus sexuel des enfants. Quelques experts ont affirmé que la performance actuelle des services en ligne en matière de retrait de matériel de pornographie juvénile est inacceptable, et que des audits sont absolument nécessaires pour comprendre l'étendue du problème. Ils ont noté qu'il existe des preuves évidentes que certains services en ligne ne retirent pas assez rapidement le matériel de pornographie juvénile ou ne le retirent pas du tout. Ils affirment que la publication de ces échecs pourrait être utilisée pour faire pression sur les services afin qu'ils soient plus réactifs et agissent plus rapidement. Ces experts ont réaffirmé que les exigences dans ce domaine doivent être assorties de sanctions financières importantes, proportionnelles à la gravité du préjudice causé aux enfants.
Thème E: Outils non-législatifs pour lutter contre la désinformation
Les experts ont exploré les outils permettant d'encourager la coopération et l'action au-delà de la législation. Ils ont examiné comment un régulateur pourrait encourager les services à s'appuyer sur ce qu'ils font déjà pour résoudre le problème, et comment le gouvernement pourrait encourager la coopération entre les services, les universités et la société civile. Certains experts ont toutefois mis en garde contre le recours à l'autorégulation. Ils ont fait valoir que le fait de compter sur les services pour faire ce qu'il faut de leur propre chef a échoué jusqu'à présent.
Les experts s'accordent à dire que l'éducation et la prévention jouent un rôle essentiel dans la lutte contre la désinformation et ses effets. Les experts ont convenu que l'action du gouvernement pour lutter contre la désinformation devrait comporter un volet éducatif axé sur la littératie et la prévention. Ils ont fait valoir que même si l'éducation est carrément de compétence provinciale, un organisme de réglementation de la sécurité en ligne pourrait avoir un mandat d'éducation qui implique de travailler avec tous les niveaux de gouvernement, les organisations de la société civile et le milieu universitaire.
Les prochaines étapes
La prochaine et dernière session du groupe consultatif d'experts aura lieu le vendredi 10 juin de 9 h à 12h (HAE). Il n'y a pas de sujet spécifique pour cette session finale. Les experts feront part de leurs réflexions générales et de leurs conclusions sur le processus et fourniront des conseils finaux sur la façon dont le gouvernement devrait procéder.
Détails de la page
- Date de modification :