Chapitre 4 - L'ingérence étrangère ciblant les élections : arsenal complexe, menace persistante

À la suite des succès du printemps arabe et des manifestations contre la fraude électorale en Russie en 2011 et en 2012, le Kremlin a intensifié son recours aux opérations d’information et au kompromat. Il applique de nombreuses techniques pour donner à la désinformation une apparence d’authenticité. Notamment, il fait en sorte que les personnes interviewées à la télévision soient celles qui fourniront une interprétation des événements favorable à Moscou sur les réseaux contrôlés par l’État, et il exploite des techniques de diffusion humaine et automatisée afin de fournir de faux reportages à ceux qui sont prêts à alimenter la dissidence à l’intérieur de régimes politiques étrangers.

Pour bien comprendre les opérations d’information et d’influence que la Russie exécute à l’étranger, il est nécessaire d’étudier l’élément central qu’est « le potentiel de protestation de la population ». La doctrine militaire de la RussieNote de bas de page 19 décrit cette expression comme l’une des principales caractéristiques du conflit moderne (non seulement en Russie) au même titre que les actions militaires, les instruments politiques, économiques et informationnels ainsi que les forces spéciales. L’expression a été adoptée après les événements du printemps arabe de 2011 et les vastes manifestations contre la fraude électorale en Russie en 2011 et en 2012. Selon les déclarations de représentants russes, les puissances occidentales avaient organisé ces manifestations pour renverser les régimes favorables à la Russie.

La réaction initiale du Kremlin a été de cibler les Russes afin d’étouffer dans l’œuf toute poussée d’enthousiasme démocratique. Des initiatives comme l’adoption d’une loi sur les agents de l’étranger et la répression d’ONG favorables à la transparence ont vu le jour pendant cette période. En même temps, une usine de trolls formée de tâcherons russes publiant des messages politiques en ligne contre rémunération a été mise sur pied à Saint‑Pétersbourg pour inonder de messages favorables au gouvernement les communautés en ligne exprimant leur opposition au Kremlin. La Russie a servi de banc d’essai pour l’application de ces méthodes. En effet, comme c’est souvent le cas, le gouvernement avait comme objectif premier d’assurer sa propre survie. Par la suite, surtout après l’annexion de la Crimée en 2014, les mêmes moyens offensifs ont été employés contre des cibles étrangères, d’abord l’Ukraine, puis l’Occident.

Démarche

L’objectif des opérations d’information et d’influence de la Russie visant les pays démocratiques se résume en deux mots : diffamer et amplifier. Différents éléments des systèmes du Kremlin génèrent ou recueillent des informations destinées à compromettre la cible; d’autres éléments les amplifient tout en conservant la possibilité d’y opposer un démenti plausible. Cette méthode remonte à la période précédant l’ère soviétique et trouve son origine dans la notion de « matériel compromettant » (kompromat). Dans les années 1980, les Soviétiques ont publié dans un journal indien une fausse nouvelle selon laquelle la CIA avait créé le SIDA, puis en avaient magnifié l’ampleur à l’échelle mondiale. L’avènement de sites Web et de médias sociaux anonymes a rendu de telles techniques beaucoup plus faciles à utiliser.

Une technique simple consiste à donner une tribune à des commentateurs dans le pays visé qui confirment la validité du discours du Kremlin. Par exemple, en 2014 et en 2015, RT a interviewé un nombre disproportionné de députés du Parlement européen appartenant au Parti pour l’indépendance du Royaume-Uni (UKIP) opposé à l’Union européenne. Au cours du premier semestre de 2017, Sputnik France a donné une place démesurée aux politiciens qui attaquaient Emmanuel Macron. Au cours de l’élection américaine, RT et Sputnik ont interviewé à répétition un universitaire qui prétendait que Google truquait son moteur de recherche à saisie automatique en faveur d’Hillary Clinton.

En pareils cas, ce qui est omis est aussi important que ce qui est inclus. Les personnes interviewées peuvent être et sont habituellement sincères dans leurs convictions. Les techniques de propagande consistent à amplifier celles-ci et à les valider sans tenir compte du revers de la médaille. L’organisme de réglementation des télécommunications britannique a trouvé RT en défaut à cet égard à plusieurs reprises.

Il est aussi important de procéder à une analyse approfondie des « spécialistes » en question. Par exemple, au cours de la période précédant le référendum catalan du 1er octobre 2017, le service espagnol de Sputnik a présenté à la une les gazouillis de Julian Assange, fondateur de Wikileaks, plus que ceux de tout autre commentateur, y compris le président de la Catalogne et le premier ministre d’Espagne. Assange n’a jamais mentionné la Catalogne dans ses gazouillis avant le 9 septembre 2017 et, à ce qu’on sache, n’a pas de compétences particulières dans le domaine des affaires constitutionnelles en Espagne. La décision de Sputnik d’amplifier ses gazouillis, qui attaquaient le gouvernement à Madrid, semble donc être fondée sur son message plutôt que sur ses compétences.

Les faux spécialistes, des commentateurs partisans

Une autre technique consiste à publier les commentaires d’intervenants alignés sur le Kremlin sans mentionner leur affiliation. Par exemple, après la destruction en plein ciel du vol MH17 de la Malaysia Airlines en Ukraine, des journalistes d’enquête du groupe Bellingcat ont recueilli, auprès de sources ouvertes, des éléments de preuve indiquant que l’avion avait été abattu au moyen d’un missile Buk-M1 lancé à partir de la Russie.

En réponse, un groupe de blogueurs nommés les « anti‑Bellingcat » qui, au départ, étaient anonymes et « indépendants », ont publié un long rapport réfutant les conclusions de Bellingcat. Les médias du Kremlin ont fait publier ce rapport en plusieurs langues et l’ont diffusé à grande échelle.

Il est ressorti plus tard que, loin d’être indépendant, l’un des deux principaux auteurs était un employé de la société d’État qui fabrique le missile Buk. L’autre était porte‑parole d’un groupe de réflexion fondé par le Kremlin et lié aux services de renseignement russes.

Des organismes du Kremlin ont également créé de nombreux sites « indépendants » qui dissimulent leurs liens avec le gouvernement de la Russie. Par exemple, NewsFront.info produit du contenu favorable au Kremlin et anti‑occidental dans plusieurs langues. Selon un dénonciateur interviewé par le journal Die Zeit, le site est financé par le renseignement russe. Baltnews, un ensemble de sites Web dans les pays baltes, prétend être indépendant, mais des liens ont pu être établis avec la société mère de Sputnik. En octobre 2017, il a été révélé qu’un compte Twitter d’extrême droite très actif et influent aux États‑Unis, @TEN_GOP, était exploité à partir de l’usine de trolls. Ce compte a connu un succès phénoménal – les messages qui y ont été diffusés ont été cités dans les médias grand public et partagés par les principaux assistants de Trump — et a contribué à amplifier la désinformation qui a fini par être citée par Trump lui‑même.

Au cours du même mois, des liens ont été établis entre le groupe connu sous le nom d’AGITPOL (« régiment de l’agitation ») et l’usine de trolls. Il se présentait comme un collectif d’activistes en ligne et a lancé à répétition des campagnes de mots-clics favorables au Kremlin ou opposées à l’Occident. Il aurait servi, par exemple, à attaquer l’acteur américain Morgan Freeman et à souhaiter un joyeux anniversaire au président Vladimir Poutine. À une occasion, des acteurs inconnus ont créé un site miroir complet du site du quotidien The Guardian pour publier un article dans lequel ils affirmaient que l’ancien chef du MI6 avait avoué que le Royaume-Uni et les États‑Unis avaient tenté de provoquer l’éclatement de la Russie au début des années 2000. Cette fausse nouvelle a vite été révélée comme telle, ce qui n’a toutefois pas empêché la télévision d’État russe de présenter de longs reportages sur cette histoire pour corroborer le discours selon lequel la Russie était assiégée.

Le piratage des courriels de politiciens bien en vue et leur diffusion en ligne constitue, par ailleurs, la technique la plus préjudiciable. Cela est particulièrement nuisible, pour les raisons suivantes :

  • toute fuite est implicitement présumée préjudiciable;
  • il est facile d’insérer de faux documents parmi des documents authentiques;
  • il est possible de laisser filtrer des informations uniquement au moment où elles sont susceptibles de causer le plus de dommages; et
  • les médias authentiques qui ne se méfient de rien sont susceptibles d’amplifier les fuites d’information.

Le piratage et la divulgation en ligne des courriels d’Hillary Clinton, candidate du Parti démocrate des États‑Unis, s’inscrivent tout à fait dans ces tentatives de compromission. Les informations piratées ont été utilisées de façon particulièrement agressive, certaines d’entre elles ayant été publiées tous les jours pendant le mois précédant l’élection. Ces opérations semblaient avoir un double objectif : porter atteinte à Clinton personnellement et mettre en doute la légitimité du processus électoral en général, le tout dans l’espoir de galvaniser le « potentiel de protestation de la population » si Clinton remportait la victoire. Comble de l’ironie, Clinton a perdu l’élection de 2016, et l’ingérence de la Russie a, en fait, nui au président auquel celle‑ci avait accordé son appui.

L’achat de publicités partisanes pour les diffuser sur les médias sociaux est une autre technique destinée à semer la division qui est en train d’être mise au jour. Conjuguée à l’utilisation de comptes de médias sociaux anonymes et agressifs, cette technique semble être conçue pour dresser les uns contre les autres différents groupes susceptibles de se soulever.

Évolution de la situation

Étant donné qu’elles ne cessent d’être mises au jour, il faut s’attendre à ce que les techniques de désinformation les plus récentes évoluent rapidement et soient adaptées de manière à en dissimuler l’origine plus efficacement et à compliquer l’établissement d’une distinction entre opérateurs humains et systèmes automatisés. Des efforts sont déjà en cours pour favoriser le patriotisme au sein du personnel de l’usine de trolls pour réduire les risques de fuitesNote de bas de page 20. Par ailleurs, fait à souligner, si les courriels piratés pendant la campagne de Clinton ont été rendus publics au moyen de Wikileaks, ceux qui ont été piratés pendant la campagne de Macron ont été publiés anonymement sur le site Web 4chan et amplifiés par l’extrême droite américaine, ce qui laisse croire à une volonté de varier les plateformes de diffusion.

Les comptes de médias sociaux combinent de façon de plus en plus complexe les messages préparés par des humains et les messages automatisés. En règle générale, ces cyborgs affichent des messages à un rythme élevé, souvent des centaines par jour, en les parsemant de messages produits par des auteurs, ce qui les dissimule davantage aux algorithmes de détection de robots et les rend plus difficiles à contrer. Cette tendance s’accélérera sans doute.

Les tentatives de piratage s’intensifieront vraisemblablement, surtout de la part d’acteurs anonymes dont les liens avec le Kremlin sont masqués. L’expérience de 2016 a montré que le piratage et les fuites d’informations peuvent être des armes dévastatrices, mais qu’ils peuvent aussi avoir l’effet inverse si l’identité des responsables est révélée. Les informations contre Emmanuel Macron qui ont filtré ont probablement été publiées anonymement sur 4chan et diffusées par l’extrême droite aux États‑Unis dans le but de compliquer davantage leur attribution. Puisqu’ils font l’objet d’une surveillance accrue, les médias appartenant ouvertement au Kremlin, comme RT et Sputnik, risquent d’être délaissés au profit de médias de façade comme NewsFront et BaltNews.

Contre-mesures : bâtir la résilience

Un certain nombre de mesures visant à contrer la désinformation ont déjà été mises à l’essai. La plus simple a été de bloquer l’accréditation de fournisseurs de contenus pseudo‑journalistiques comme RT et Sputnik, comme on l’a vu dans les pays baltes et en France. Bien qu’elle envoie un puissant message, cette mesure établit aussi un précédent qui prête le flanc aux abus. Les mesures de ce genre ne devraient donc être utilisées qu’en dernier recours.

L’enregistrement des médias contrôlés par l’État est un autre moyen digne d’être étudié. Au moment de la rédaction du présent document, les États‑Unis auraient sommé RT et Sputnik de s’enregistrer à titre d’agents de l’étranger. En pareils cas aussi, il convient de faire preuve de circonspection : il est important d’étiqueter l’organe sans donner l’impression de vouloir le réduire au silence.

La réglementation des normes journalistiques peut aussi jouer un rôle. Au Royaume-Uni, l’organisme national de réglementation des télécommunications, Ofcom, a déclaré RT coupable d’avoir entravé les normes journalistiques dans un certain nombre d’émissions. Les sanctions ont été symboliques, mais les dommages à la réputation de la chaîne d’information ont été considérables. De telles conclusions de la part d’organismes de réglementation, fondées sur des éléments précis d’émissions individuelles évaluées selon des normes transparentes d’exactitude et d’impartialité, constituent un outil utile dans les efforts visant à contrer toutes les sources de désinformation.

La vérification détaillée des faits joue également un rôle dans la dénonciation de fausses informations et de faux discours. La vérification des faits n’est pas le meilleur moyen de contrer les fausses histoires qui, pour la plupart, font appel à l’émotivité. Toutefois, au fil du temps, une vérification systématique des faits peut contribuer à mettre au jour les sources principales de fausses informations. Il importe aussi de démasquer les opérations d’influence. Dans un exemple récent, de fausses allégations de viol contre des soldats de l’OTAN dans les pays baltes ont pu être démenties avant qu’elles ne fassent boule de neige. En effet, l’intervention rapide des représentants officiels de l’organisation auprès des médias grand public a permis de mettre au jour cette histoire inventée de toutes piècesNote de bas de page 21.

Toutefois, pour que de telles révélations aient l’effet souhaité, les médias et la société en général doivent comprendre que les opérations d’influence sont dangereuses, qu’elles doivent être prises au sérieux et qu’il faut s’y attaquer sans tarder. Faire abstraction du problème peut avoir des conséquences. Le 7 octobre 2016, le directeur du Renseignement des États-Unis a prévenu que la Russie tentait de s’ingérer dans l’élection. La diffusion d’une vidéo d’Access Hollywood dans laquelle Trump se vantait d’empoigner les femmes par le sexe a vite fait de reléguer cet avertissement au second plan, si bien qu’il n’a attiré l’attention de la population à l’échelle du pays qu’une fois l’élection terminée.

On ne saurait trop insister sur l’importance de sensibiliser et de mobiliser la population. La désinformation se propage mieux au sein des groupes qui ne se méfient pas ou qui ont un penchant pour les fausses informations. Des cours sur la façon de repérer un faux compte de média social, une photo volée ou un article tendancieux sur Internet devraient être donnés sur une échelle beaucoup plus vaste. Les gouvernements pourraient aussi consacrer plus de temps à cerner des segments particuliers de leurs sociétés, à dialoguer avec eux et à les écouter pour comprendre comment et pourquoi de fausses informations arrivent à s’y propager.

Il n’existe pas de solution unique au problème complexe et multidimensionnel de la désinformation. La réglementation, la vérification des faits, la dénonciation et l’éducation ont toutes un rôle à jouer. Toute solution qui met l’accent sur un de ces éléments au détriment des autres n’a pas beaucoup de chances de réussir. Il est nécessaire de bâtir la résilience sur autant de fronts que possible.

Détails de la page

Date de modification :