Chapitre 1 - Événements orchestrés ou nouvelle tendance? Comprendre la complexité de la désinformation en ligne
La désinformation est propagée par un réseau complexe d’acteurs souvent indépendants. Bon nombre véhiculent des théories du complot ou des canulars, unis par leur méfiance à l’égard des gouvernements occidentaux et des médias grand public. Leur discours, qui séduit des gauchistes hostiles à la mondialisation et à l’intervention militaire ainsi que des nationalistes opposés à l’immigration, est fréquemment infiltré et façonné par des trolls étatiques et par des reportages retouchés d’agences comme RT et Sputnik. On observe diverses motivations pour participer à la propagation de la désinformation.
Tous les jours ou presque, de nouvelles informations révèlent l’ampleur de l’utilisation, par le gouvernement de la Russie, des médias sociaux et d’autres outils en ligne pour s’ingérer dans le processus démocratique aux États‑Unis, au Royaume-Uni et ailleurs. Ces révélations mettent en lumière une stratégie multidimensionnelle qui allie techniques évoluées et méthodes rudimentaires pour produire et diffuser de la désinformation. Elles laissent aussi croire à l’existence d’un système complexe au sein duquel ces techniques trouvent un écho auprès de divers acteurs distincts et indépendants, dont elles dictent les activités.
L’examen de la prolifération des théories du complot entourant les attentats terroristes et les fusillades aux États‑Unis permet de mieux comprendre la dynamique complexe qui sous‑tend cette forme de désinformation. Par exemple, une rumeur selon laquelle l’attentat à la bombe contre le marathon de Boston était une opération clandestine (black ops) perpétrée par le gouvernement des États‑Unis a circulé en ligne. Les utilisateurs de Reddit et de Twitter ont émis l’hypothèse que la fusillade commise en 2015 sur le campus de l’Umpqua Community College (tout comme la tuerie à Sandy Hook trois ans plus tôt) était un canular élaboré par le gouvernement pour justifier l’adoption de lois sur le contrôle des armes à feu. De même, la fusillade d’octobre 2017 à Las Vegas a été perçue comme une opération menée sous faux pavillon par des membres du « nouvel ordre mondial », une coterie de conspirateurs qu’on dit contrôler la marche du monde.
Bien qu’elles soient toutes distinctes dans une certaine mesure, les théories du complot s’inscrivent dans une logique d’allégations de crises anthropiques et se rejoignent dans quelques thèmes ou discours sous‑jacents :
- le gouvernement des États‑Unis et d’autres gouvernements occidentaux ou affiliés à l’OTAN ne sont pas dignes de confiance. Ce sont des agresseurs dont l’intervention dans les conflits mondiaux est injustifiée;
- ces gouvernements et d’autres personnes puissantes manipulent les événements mondiaux pour conserver le pouvoir; et
- les médias grand public et les médias privés ne sont pas fiables. Ils aident les gouvernements et d’autres acteurs puissants à cacher la vérité à la population en diffusant de « fausses nouvelles ».
Bon nombre de ces discours sont explicitement liés à une vision antimondialiste ou nationaliste du monde. Le terme « mondialisme » est apparenté au terme « mondialisation », qui sert à caractériser des perspectives transnationalesNote de bas de page 2 et des politiques favorables au libre‑échange et à l’ouverture des frontièresNote de bas de page 3. Dans les faits, le terme « antimondialiste » mobilise autour d’une cause commune des personnes qui semblent être aux antipodes sur l’échiquier politique. Le discours antimondialiste relie entre eux, par exemple, des partisans de la gauche, qui dénoncent la mondialisation et l’intervention militaire à l’étranger des États‑Unis et d’autres pays membres de l’OTAN, et des tenants de la droite, qui s’opposent à l’immigration et favorisent les politiques nationalistes.
En examinant de la prolifération de ces théories du complot et des discours connexes, on voit comment les États qui parrainent des opérations d’information exploitent les communautés organiques d’utilisateurs en ligne pour propager la désinformation.
À titre d’exemple, considérons la tuerie perpétrée le 5 novembre 2017 dans une église d’un petit village du Texas, qui a coûté la vie à plus de vingt personnes. Dans les heures qui ont suivi, les autorités et les médias grand public ont communiqué l’identité du suspect, un homme de 26 ans qui avait des antécédents de violence conjugale et qui avait été réformé de l’Armée de l’air des États‑Unis. Toutefois, avant que cette nouvelle n’ait été étoffée, et même après qu’elle eut été corroborée, on prétendait, dans une autre version des faits, que le suspect était en réalité un terroriste du groupe AntifaNote de bas de page 4. Souhaitant promouvoir cette version, des activistes en ligne de la droite politique ont trafiqué des captures d’écran du profil Facebook du tireur afin d’y insérer un drapeau d’Antifa et, par le fait même, d’ajouter foi à cette théorie, puis se sont servi des médias sociaux pour diffuser ce contenu. La théorie s’est vite répandue dans la twittosphère entre les partisans de la droite alternative, dont Mike Cernovich, blogueur populaire, qui a indiqué dans son gazouillis que les détails concernant le tueur cadraient avec le profil d’un membre d’Antifa. Alex Jones, personnalité des médias de droite connue pour sa propension à propager des théories du complot, a fait remarquer que le tueur était tout de noir vêtu (signe qu’il s’agissait d’un activiste de gauche). Cette théorie a également été diffusée dans la presse parallèle, sur des sites Web comme TheGatewayPundit, YourNewsWire et BeforeItsNews. La chaîne d’information télévisée RT (anciennement Russia Today), financée par le gouvernement de la Russie, a aidé à propager cette allégation en partageant sur Facebook un message faisant état des liens du tueur avec Antifa, accompagné du contenu du profil Facebook trafiqué.
Cela s’inscrit dans une tendance maintenant bien établie, celle des activités en ligne menées à la suite de tueries. Selon de récentes études, certaines des conversations initiales entourant ces théories se dérouleraient sur des plateformes Web comme Reddit, 4chan, Discord et autresNote de bas de page 5, dont la visibilité est moindre, et dont les intervenants jouissent par conséquent d’un anonymat accru. Ces théories sont ensuite diffusées et amplifiées, parfois de manière stratégique, sur Twitter et Facebook. En outre, un écosystème de sites Web connexes se crée autour de ces conversations conspirationnistes et les soutient en y ajoutant hypothèses, analyses et preuves sous diverses formesNote de bas de page 6. Cet écosystème est surtout constitué de médias parallèles qui prétendent contester les nouvelles publiées dans les médias grand public. Il comprend plusieurs sites Web et blogues qui font la promotion de théories du complot et d’allégations pseudo‑scientifiques (p. ex. InfoWars, 21stCenturyWire et SecretsOfTheFed). Fait important, de nombreux sites Web de cet écosystème ne font que regrouper les nouvelles, c’est‑à‑dire qu’ils remanient du contenu trouvé ailleurs et le republient dans l’écosystème (p. ex. BeforeItsNews et YourNewsWire). Le système contient aussi quelques sites Web destinés explicitement aux nationalistes et aux suprémacistes blancs (DailyStormer) ou, en apparence, aux activistes de gauche (ActivistPost) qui véhiculent des messages parallèles sur les tueries commises en 2016. Les sites Web de la chaîne RT et de l’agence de presse Sputnik financées par la Russie font aussi partie de cet écosystème, tout comme PressTV de l’Iran.
Il reste à déterminer comment s’emboîtent les différents éléments de ce système dynamique qui consiste à lancer des théories, puis à les amplifier et à les propager. On ne sait pas encore au juste dans quelle mesure ces activités représentent une nouvelle tendance ou sont orchestrées (le cas échéant, par qui et pourquoi). Toutefois, on observe différents intervenants dont les sources de motivation diffèrent tout en se chevauchant. Voici, en guise de cadre conceptuel préliminaire, six catégories dans lesquelles s’inscrivent ces sources de motivation.
Idéologie sincère
Un ensemble d’acteurs dans ce système est motivé par des considérations idéologiques. Ces acteurs, dont des utilisateurs des médias sociaux et de petites organisations qui exploitent des sites Web, des blogues et d’autres fils de nouvelles croient vraiment aux messages qu’ils diffusent. Il s’agit en règle générale de messages antimondialistes (les partisans de la gauche diffusent des messages anti‑impérialistes et antimondialisation, et les partisans de la droite, des messages pronationalistes et anti‑immigration). Ces acteurs sont aussi très explicites dans leurs critiques et leur méfiance à l’égard des médias grand public. Ils peuvent effectivement être influencés par la propagande politique, bien que la relation de cause à effet soit difficile à établir. Parfois, ils peuvent être perçus comme de simples intervenants qui se contentent de relayer la propagande politique en l’amplifiant au passage. Cependant, de nombreux acteurs réellement motivés par des considérations idéologiques produisent leur propre contenu sans éprouver constamment le besoin de l’introduire directement ailleurs ou de le coordonner avec d’autres messages.
Propagande politique
Il est possible de considérer que les activités du deuxième groupe d’acteurs dans ce système, notamment la production, le partage et l’amplification délibérés de la désinformation, s’inscrivent dans une stratégie politique. Contrairement aux acteurs motivés par des considérations idéologiques, ceux-ci ne croient pas nécessairement le contenu des messages qu’ils partagent. Ils entremêlent faits et fausses informations dans leurs messages et associent intentionnellement à leurs propres discours d’autres histoires et messages qui sont souvent susceptibles d’intéresser les acteurs motivés par des considérations idéologiques. Ces acteurs aux motivations politiques se servent du potentiel qu’offre l’ère de l’information pour adapter de vieilles stratégies de désinformation. Ils exploitent l’infrastructure technologique d’Internet pour diffuser leurs messages plus rapidement, à un auditoire plus vaste et à un coût plus faible que jamais auparavant. Pomerantsev et WeissNote de bas de page 7 ont signalé dans leurs écrits que la désinformation ne vise pas nécessairement à convaincre, mais à semer la confusion, c’est‑à‑dire brouiller l’esprit des gens et attiser la méfiance à l’égard de l’information et de ceux qui la fournissent. Des signes donnent à penser que cette stratégie entre en jeu dans l’écosystème à l’étude. Un autre objectif de la désinformation est de créer des divisions au sein des démocraties qui s’opposent et de les amplifier, phénomène également présent dans le système.
Incitatifs financiers
D’autres acteurs de ce système sont motivés par des considérations d’ordre financier. Par exemple, de nombreux sites Web vendent de la publicité et des produits de santé. Bon nombre d’entre eux se contentent essentiellement de regrouper des pseudo-médias (ou médias parallèles), en régurgitant du contenu destiné à attirer les utilisateurs (des pièges à clics). D’autres, comme InfoWars, intègrent du contenu original à du contenu emprunté à d’autres sites de l’écosystème, dont celui de RT, et utilisent leur plateforme pour faire le trafic d’une gamme de produits (p. ex. des suppléments nutritifs).
Accroissement de la réputation
Un autre ensemble d’acteurs, notamment dans la sphère des médias sociaux, semble être motivé par l’attention et l’accroissement de la réputation que leur offrent ces plateformes. Les médias sociaux sont conçus de manière à être interactifs, c’est‑à‑dire à favoriser une rétroaction circulaire au moyen des fonctions J’aime et Suivre. Dans le monde de la désinformation, notamment chez les partisans de la droite alternative, il semble exister des acteurs qui sont principalement (ou, du moins, dans une large mesure) motivés par l’attention qu’ils obtiennent et la réputation accrue qu’ils croient pouvoir acquérir. Mike Cernovich et Jack Posobiec sont deux exemples bien connus, mais beaucoup d’autres représentants de l’élite de l’externalisation ouverte sur Twitter et ailleurs propagent des messages parallèles et d’autres formes de désinformation politisée et jouissent donc d’une grande visibilité en ligne.
Même si les preuves empiriques à cet effet ne sont pas encore très nombreuses, les deux dernières catégories, qui sont plus conceptuelles, font probablement partie de l’écosystème complexe décrit précédemment.
Divertissement
Certaines personnes font probablement de la désinformation simplement « pour les lulz », comme dirait le groupe Anonymous dont la popularité décline. Ce slogan, qui signifie « pour la rigolade », visait à décrire une forme de plaisanterie espiègle propre aux activités en ligne. Une autre façon de comprendre cette catégorie consiste à étendre au monde réel les pratiques du jeu en ligne. Par exemple, la désinformation peut servir de plateforme de collaboration avec les membres d’une équipe en ligne et de moyen de s’engager dans des missions de piratage culturel (pour propager certaines idéologies).
Autonomisation
La désinformation peut offrir à une personne ou à un groupe privés de droits la possibilité d’exercer de l’influence ou du pouvoir dans le monde au moyen de ses actions en ligne. Cette catégorie comprend les habitués du forum 4chan, qui utilisent la production et la propagation de mèmes graphiquesNote de bas de page 8 comme armes pour amener des changements politiques dans le monde. Tout comme les bénévoles qui ont l’impression de faire une différence en s’unissant en ligne après des catastrophes pour venir en aide à des personnes, ces acteurs sont motivés par l’idée de collaborer au sein d’une équipe en ligne pour défendre une cause (p. ex. l’élection du candidat qu’ils favorisent). Toutefois, la cause en tant que telle les motive peut‑être moins que la gratification émotionnelle qui découle du fait d’avoir eu une incidence.
Ces dernières sources de motivation et les acteurs qui leur sont associés ne sont pas sans importance. Selon des études préliminaires, non seulement les stratégies de désinformation intentionnelles exploitent le pouvoir des plateformes de médias sociaux, mais elles trouvent un écho auprès des communautés en ligne qui se forment au sein de ces plateformes. Par exemple, des trolls établis en Russie se faisant passer pour des Américains se sont servis de leurs comptes pour infiltrer les communautés en ligne d’utilisateurs de Twitter de la droite alternative et afin de lancer et d’amplifier leurs messages pendant le cycle électoral de 2016 aux États‑Unis. Ils ont également infiltré les communautés de gauche qui se sont formées sur la twittosphère autour d’enjeux tels que #BlackLivesMatter dans le but d’attiser les divisions qui existent aux États‑Unis. Par ailleurs, les communautés d’activistes en ligne qui se forment autour d’idéologies d’opposition à la guerre ont été la cible d’opérations d’information liées à la Russie qui visaient à diffuser des messages remettant en cause les activités des États‑Unis et de l’OTAN en Syrie.
S’ils se concentrent sur les activités de coordination explicites d’acteurs étatiques et de collusion avec ces derniers et sous‑estiment ou négligent les rôles et les motivations de ces acteurs indépendants, les chercheurs, les journalistes et les décideurs risquent de simplifier à outrance ce système complexe, de nuire à l’élaboration de solutions efficaces et de ne pas sensibiliser suffisamment le public au problème. Ils se trouvent ainsi, et c’est là un fait important, à rater l’occasion d’aider les utilisateurs ordinaires de ces systèmes à reconnaître le rôle qu’ils jouent dans le phénomène de la désinformation. Autrement dit, le problème de la désinformation ne peut être simplement attribué à la conception des systèmes technologiques ou aux actions délibérées de trolls financés par des gouvernements. Pour régler le problème, il est aussi nécessaire de tenir compte des gens qui utilisent ces informations ou sur lesquels ces informations ont une incidence, et ce, non seulement à titre de victimes, mais aussi à titre d’agents ayant un rôle dans la création et la propagation du problème et (il est à espérer) dans la recherche d’une solution.
Détails de la page
- Date de modification :