Les attaques en Nouvelle-Zélande, ont montré à nouveau comment les terroristes islamistes et ceux d’extrêmes droite exploitent les recoins les moins régulés du web. un défi auquel doivent faire face les plate-formes technologiques et les autorités publiques, constatent les chercheues Iris Boyer* et Cécile Guérin*
tribune publiée sur lemonde.fr, le 21 03 2019
Tribune. Dans les quarante-huit heures qui ont suivi la fusillade de Christchurch, en Nouvelle-Zélande – survenue le 19 mars –, deux tendances ont émergé au sein des réseaux extrémistes sur Internet. Dans les communautés d’ultra-droite en ligne, dont faisait partie l’assaillant Brenton Tarrant, des discussions ont révélé une fascination certaine pour les images violentes de la tuerie, diffusées en direct sur Facebook.
Dans un post célébrant cet acte terroriste, un utilisateur du forum 8chan – plate-forme sur laquelle ce dernier a annoncé son projet d’attentat, devenue un repaire pour les extrémistes d’ultra-droite, néonazis et sympathisants alt-rightaméricains – appelle à partager en masse la vidéo et présente le terroriste en héros ayant mené à la consécration des efforts de toute une communauté d’acteurs.
« Il a baigné dans nos mèmes, il a peut-être même été éveillé par eux. Et, en retour, il nous a possiblement offert le mème le plus puissant que nous n’avons jamais eu : la vidéo des tueries », peut-on lire. A l’opposé du spectre idéologique, dans des groupes et chaînes djihadistes sur la plate-forme Telegram, des appels à la vengeance par des attaques contre des églises ont immédiatement vu le jour.
Phénomène de radicalisation cumulative
Ces réponses aux attaques sont symptomatiques du phénomène de radicalisation cumulative entre islamisme radical et extrême droite – étudié par Julia Ebner dans son ouvrage The Rage : The Vicious Circle of Islamist and Far-Right Extremism (I.B. Tauris, 2017, non traduit) –, selon lequel les deux idéologies se nourrissent, se légitiment et se renforcent l’une l’autre par leur adhésion commune à une vision du monde comme un choc des civilisations entre islam et monde occidental. Une attaque par l’un des groupes appelle, dans cette logique, des représailles du groupe opposé.
Dans son manifeste publié sur 8chan, Tarrant mentionne les attaques terroristes islamistes en Europe comme un élément-phare de son éveil idéologique. Après l’attaque contre une mosquée à Québec le 29 janvier 2017, les appels à la vengeance se sont multipliés sur les groupes djihadistes en ligne.
Cette radicalisation cumulative entre islamisme radical et extrême droite a été nourrie, sur Internet, par des forums de jeux vidéo comme 4chan, 8chan ou Discord aux systèmes de messagerie encryptés comme Telegram ou Signal, où extrémistes de tout bord se retrouvent pour disséminer leur idéologie et coordonner des actions violentes.
Un écosystème extrémiste en ligne ultra-développé
Dénuées de politique d’autorégulation, les plates-formes telles que 8chan, à l’origine repaires d’hacktivistes anarcho-libertaires, ont été peu à peu infiltrées par des extrémistes, néonazis et nationalistes issus d’autres plates-formes.
Mêlant hiérarchies quasi militaires et codes de la culture populaire en ligne (mèmes comme « Pepe la grenouille » [adopté par l’alt-right américaine], mangas et références cinématographiques telles que Matrix), elles ont contribué au développement de communautés en ligne fermées qui nourrissent les frustrations de leurs membres et leur vision du monde paranoïaque, aboutissant au phénomène Tarrant.
Lire aussi Attentat de Christchurch : 8chan, vivier en ligne du terrorisme d’extrême droite
Nos sociétés font aujourd’hui face à un écosystème extrémiste en ligne ultra-développé et sophistiqué qui échappe au contrôle des autorités publiques, exploite les recoins les moins régulés de la Toile et continue de contourner les efforts de modération des grandes plates-formes technologiques. Seule une politique numérique ambitieuse, qui prenne en compte l’ensemble de l’écosystème en ligne, des réseaux sociaux traditionnels aux forums alternatifs plus radicaux, peut être à la hauteur du défi.
Si la suppression de plates-formes comme 8chan peut sembler une idée prometteuse, cette solution de court terme n’empêchera pas la création de forums similaires ou la migration de ses membres à d’autres espaces encore plus opaques.
Des mesures légales peuvent être prises pour supprimer les contenus illégaux sur ces plates-formes, mais nos systèmes législatifs doivent aussi s’adapter aux avancées technologiques pour apporter une réponse efficace.
Des contenus haineux amplifiés par des algorithmes
Comme l’a montré la diffusion en direct de la fusillade sur Facebook et son partage massif sur YouTube et Twitter, l’extrémisme en ligne ne se limite pas à quelques sites alternatifs, et les événements de Christchurch ont exposé les limites des efforts de modération de contenus par les grandes plates-formes, dont des idéologues violents à la recherche d’une audience de masse ont bien compris le potentiel.
« La modération de contenus demeure l’un des grands défis des géants des réseaux sociaux »
Ces entreprises doivent consentir davantage d’efforts dans l’articulation de réponses ambitieuses aux contenus extrémistes émanant de groupes et de militants d’extrême droite. Ces efforts doivent notamment inclure des recherches d’experts dans les processus de machine learningqui entraînent les classificateurs de contenus automatisés et dans les politiques qui déterminent leurs décisions sur la légitimité de garder un contenu ou de le supprimer.
La modération demeure l’un des grands défis des géants des réseaux sociaux, tout comme les contenus qui se situent dans les « zones grises de la légalité », contenus haineux qui ne franchissent pas le seuil de l’illégalité et qui sont souvent amplifiés par des algorithmes destinés à promouvoir textes et vidéos sensationnalistes.
Une réponse sociale et politique d’envergure est nécessaire
A l’heure actuelle, les gouvernements font pression sur les grandes plates-formes technologiques, avec une perspective étroite encore principalement focalisée sur la modération et faisant l’impasse sur la nécessité d’établir dans quelle mesure la technologie peut contribuer à la banalisation de la haine.
Les développements législatifs prévus en France au printemps, avec la proposition de loi de lutte contre la cyber-haine portée par la députée (La République en marche) de Paris Laetitia Avia, devraient accélérer la responsabilisation des entreprises technologiques sur l’impact des algorithmes dans la propagation des contenus haineux.
Au-delà des politiques numériques, une réponse sociale et politique d’envergure est nécessaire. Il est primordial que les autorités et les entreprises technologiques travaillent en coopération avec le monde académique et la société civile pour mettre au point des solutions innovantes afin d’endiguer les phénomènes de radicalisation des idées, accélérés et amplifiés à l’ère du numérique.
Un investissement multisectoriel, de grande ampleur et durable, dans les initiatives de la société civile, sera déterminant pour mener cette bataille des idées.
*Iris Boyer a travaillé au sein du ministère des affaires étrangères français de 2013 à 2015 et au sein des équipes des affaires publiques de Facebook (2015) puis de YouTube (2016). *Cécile Guérin participe également à l’Initiative pour le courage civil en ligne (OCCI), lancée en partenariat entre l’Institute for Strategic Dialogue (ISD) avec Facebook, qui vise à intensifier les efforts de la société civile contre le discours de haine et l’extrémisme en ligne. L’ISD est un think tank britannique qui se consacre à l’étude des extrémismes.
Iris Boyer (Chercheuse au think tank Institute for Strategic Dialogue) et Cécile Guérin(Chercheuse associée à l’Institute for Strategic Dialogue)