97 – Les fantômes du Net

Pour sortir de ma rêverie nostalgique et reprendre place au clavier, je dois chasser les fantômes qui me hantent. Hélas, rescapés de l’espèce, ils ne sont pas les seuls à venir perturber nos existences. Ceux de l’ère numérique abondent. #RescapesdelEspece

b97

       Comme avec Psychologie des foules à la fin du XIXe siècle, user de la manipulation des masses est redevenu à la mode pour les apprentis-sorciers contemporains. Avec l’entrée dans l’ère numérique, la gestion du phénomène a été rendue plus complexe par l’apparition d’un « détail » : cette foule existe-t-elle ? L’engouement qui se traduit sur un réseau social témoigne-t-il d’un effet réel sur une fraction plus ou moins large de l’opinion ou n’est-ce que le résultat d’une opération d’astroturfing (1), d’une manipulation manuelle ou algorithmique provoquée par des tiers soucieux d’obtenir un résultat précis ?

       Cette technique, explique Fabrice Epelboin, enseignant à Sciences Po Paris (2), « implique le plus souvent des identités créées de toutes pièces, destinées à mettre en scène des phénomènes de foule dans un environnement tel que Facebook, de façon à influencer la perception des utilisateurs de la plate-forme ou à donner plus de visibilité à un sujet, en fabriquant de façon artificielle sa popularité ». Il donne comme exemple d’opération la firme Samsung qui, lors de l’arrivée de HTC sur le marché des smartphones, aurait mis en place une campagne de cette nature en rémunérant des étudiants taïwanais pour qu’ils se plaignent sur les forums de discussion de défauts imaginaires du HTC One. La même technique aurait été utilisée par Exxon, aux États-Unis, afin de justifier l’exploitation des gaz de schiste.

       La volonté de manipuler la foule n’existe pas que chez les industriels. De toute éternité, les dirigeants politiques y ont eu recours. Fabrice Epelboin rappelle que, dans son Jules César, Shakespeare fait écrire par Cassius de fausses lettres de citoyens demandant à Brutus de les débarrasser de César. Une technique qui s’est prolongée au cours des siècles puisque Nixon faisait rédiger par une de ses équipes de fausses lettres de citoyens à l’intention des médias afin de défendre ses options politiques. Et lors des grandes manifestations contre la loi Savary, en 1984, Matignon avait tenté de dissuader les familles catholiques et autres partisans de l’enseignement privé de venir avec des enfants en tentant de faire courir, de manière artificielle, la rumeur d’inévitables violences en marge des cortèges. Comme les fausses lettres concoctées par les équipes de Nixon, ces tentatives de manipulation sont, le plus souvent, sans effet. Elles ne fonctionnent que dans une dramaturgie littéraire. Dans la vie réelle, elles n’ont pour premier objet que de rassurer leurs instigateurs qui s’imaginent avoir prise sur des événements qui les dépassent.

       Dans l’univers du cyberespace, en revanche, tout devient possible. Les responsables de Twitter veulent faire jouer à l’actualité, et en particulier aux grands scrutins démocratiques, un rôle de locomotive afin d’accroître la fréquentation de leur plate-forme. Ils s’exposent ainsi au péril de devenir un outil de manipulation. En mars 2017, des messages de soutien au président turc Recep Tayyip Erdogan ont été diffusés sur divers comptes de ce réseau social en utilisant de manière frauduleuse le logiciel de mesure d’audience Twitter counter. Plus préoccupant, deux chercheurs en cybersécurité au University College de Londres ont mis en évidence (3) l’existence de centaines de milliers de faux comptes, actionnés par des robots.

      Twitter rassemble 313 millions d’usagers actifs qui génèrent quelque 500 millions de tweets chaque jour. Les deux universitaires ont, de manière aléatoire, analysé six millions de comptes anglophones. À l’occasion de cette recherche, ils ont découvert près de 24 000 messages provenant de zones inhabitées (océans et déserts) proches des États-Unis et de l’Europe. Ces localisations forment, sur la carte, deux zones rectangulaires parfaites, fruit probable d’un algorithme. Ces comptes, qui ont moins d’une dizaine d’abonnés, émettent moins de onze tweets qui se résument à des citations de Star Wars. En poussant leur travail, les deux chercheurs ont découvert que ces faux comptes ont été créés à partir du 20 juin 2013, qu’ils ont publié 150 000 messages, avant d’entrer en sommeil un mois plus tard, le 14 juillet 2013. Bien que ces opérations soient traquées par les responsables de Twitter, les comptes Star Wars sont demeurés non identifiés pendant plus de trois ans et les deux auteurs affirment en avoir identifié 500 000 autres de même nature, c’est-à-dire des robots rattachés soit à un robot central soit à un humain en situation de les actionner.

       La découverte des comptes Star Wars résulte d’une localisation aberrante et de messages puisés à la même source. Il est envisageable que des opérations similaires soient mieux dissimulées et demeurent inconnues. À quoi pourraient servir ces armées de faux comptes ? Ils peuvent être revendus pour des opérations, soit à de riches clients voulant augmenter de manière artificielle leur nombre d’abonnés, soit pour des opérations électorales visant à peser sur un scrutin en faisant remonter un mot-clé prédéfini. « S’ils ne sont pas détectés à temps, ils peuvent envoyer des tweets comme de véritables usagers, mais coordonnés de manière centralisée autour d’un même thème, expliquent les auteurs de l’étude. Ils peuvent tous émettre des tweets positifs ou négatifs biaisant les mesures utilisées par les sociétés et les études pour analyser les opinions et les thématiques. (…) Ils peuvent orchestrer une campagne pour donner à croire à une fausse adhésion des utilisateurs de Twitter, en masquant l’origine réelle du message et en faisant en sorte qu’elle semble émaner de la communauté des utilisateurs elle-même. » Qu’est-ce qu’un nouveau média dont les responsables ne sont pas à même de détecter un usage frauduleux et manipulatoire, une opération d’astroturfing ?

       Twitter n’est pas le seul vecteur ciblé. Lors des auditions de représentants de Facebook par le Congrès des États-Unis, à l’automne 2017, certains responsables du réseau social ont admis, à en croire la presse américaine, avoir découvert des transactions qui accréditent une « guerre informationnelle » menée par les Russes à l’occasion du scrutin présidentiel. L’entreprise de Mark Zuckerberg a reconnu l’achat pour plus de cent mille dollars de publicités par une entreprise russe afin d’assurer la promotion de discours radicaux. Il s’agissait d’appeler à un « événement Facebook » intitulé « Les citoyens avant les réfugiés », organisé sous l’égide du groupe SecuredBorders. Cet événement a été sponsorisé, ce qui signifie que Facebook a reçu de l’argent afin qu’il soit mis en avant. Il s’agissait de promouvoir un rassemblement anti-immigration organisé à Twin Falls, dans l’Idaho, par un groupe qui comptait 130 000 abonnés et qui a été fermé au mois d’août 2017. Sauf que ce groupe était en réalité orchestré par des « fermes à trolls » russes.

      Dans le New York Times Magazine (4), Adrian Chen avait expliqué comment, dans un vaste bâtiment de l’époque soviétique au nord-ouest de Saint-Pétersbourg, quelques quatre cents Russes rémunérés sept cents euros par mois, soit l’équivalent d’un salaire de professeur titulaire, inondent les réseaux sociaux de fausses informations ou de messages en faveur de Poutine. Il s’agit de l’Internet Research Agency – son nom officiel –, qui serait financée par Evgeny Prigozhin, un oligarque travaillant en relation étroite avec Vladimir Poutine. Chaque employé gère des dizaines de faux comptes Twitter ou Facebook. Encore plus significatif dans un contexte électoral, l’entreprise russe aurait réalisé un ciblage des électeurs les plus enclins à voter Donald Trump grâce à la géographie électorale. Alex Stamos, le directeur de la sécurité de Facebook, a tenté de se justifier dans un billet (5) en observant : « Les publicités et les comptes concernés semblaient s’attacher à amplifier des messages politiques et sociaux clivants sur l’ensemble du spectre idéologique — touchant depuis des sujets LGBT jusqu’aux droits des armes en passant par les questions raciales. » Selon lui, la tactique consistant à mêler le ciblage géographique pour un quart des messages et l’accentuation des divisions idéologiques américaines est conforme à ce que le réseau identifiait quelques mois auparavant comme une guerre informationnelle (6).


Notes :

  1. Le terme vient de la marque du faux gazon installé, à Houston, sur le stade de baseball de l’équipe des Astro. Comme, en anglais, grassroot désigne un mouvement citoyen, astroturfing désigne un faux grassroot, donc un faux mouvement populaire.
  2. Entretien avec Agathe Auproux, Les Inrocks, 6 février 2017.
  3. Étude publiée le 10 janvier 2017, sous le titre The « Star Wars » botnet with >350k Twitter bots, signée Juan Echeverria et Shi Zhou.
  4. 2 juin 2015.
  5. 6 septembre 2017.
  6. Information Operations and Facebook, par Jen Weedon, William Nuland and Alex Stamos, 27 avril 2017.

 

Publicités

Laisser un commentaire

Choisissez une méthode de connexion pour poster votre commentaire:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s