Le 9 octobre 2019, à Halle en Allemagne, un terroriste néo-nazi de 27 ans tuait 2 personnes et en blessait 2 autres dans un attentat contre une synagogue. Durant 35 minutes, la vidéo de l’attaque était diffusée en direct sur la plateforme de streaming Twitch. Cette affaire n’est pas sans rappeler celle des attentats de Christchurch en mars 2019 en Nouvelle-Zélande. L‘attaque perpétrée contre 2 synagogues et qui a fait 51 morts avait été diffusée en direct sur Facebook, pendant 17 minutes.
Ces 2 cas posent la question de la responsabilité des plateformes quant à la diffusion d’une forme particulière de contenu illicite : les attaques terroristes. Comment éviter que celles-ci se retrouvent librement accessibles par tous ? Et comment empêcher leur mise en ligne sans censurer l’ensemble des contenus ?
Le choc de l’attentat de Christchurch
Le 15 mars 2019, Brenton Tarrant, immigré australien d’extrême droite, ouvre le feu sur 2 bâtiments religieux, Masjid al-Noor et Linwoord à Christchurch en Nouvelle-Zélande. Le bilan est de 51 morts. C’est l’attaque la plus meurtrière qu’ait connu le pays depuis 1809.
Avant la fusillade, le tireur diffuse des photos de sa préparation sur Twitter. Puis, via le forum 8chan – où se rassemblent de manière anonyme des internautes d’extrême droite – il publie un manifeste de 78 pages exposant ses motivations et annonce que l’attaque sera diffusée en direct sur Facebook, en mettant un lien vers celle-ci. Pendant plus de 17 minutes, à l’aide d’une GoPro, la tuerie est filmée. Ces images insoutenables et d’une extrême violence sont visibles sur le profil Facebook de l’assaillant. La vidéo est commentée, likée, copiée. Sur le forum 8chan, le tueur incite même les internautes à diffuser ce contenu au maximum, pour en augmenter la visibilité.
Facebook, alerté par les autorités néo-zélandaises, supprime la page hébergeant la vidéo. Mais les images, déjà copiées, se retrouvent rapidement sur de nombreux réseaux et plateformes tels que YouTube, Twitter ou Instagram. Le direct est visionné par 200 personnes, pour un total de 4 000 vues avant sa suppression. Dans un communiqué, l’entreprise américaine détaille que 1,5 million de vidéos de l’attentat ont été supprimées dans les 24 heures suivantes.
L’outil Facebook Live date de 2016. Avant Christchurch, plusieurs scènes violentes avaient déjà suscité des polémiques (viols collectifs, actes de torture, suicides, meurtres). Mais cette nouvelle forme de violence met en évidence les failles des systèmes de modération des plateformes, et la difficulté d’empêcher que de tels contenus se retrouvent accessibles sur les réseaux, même pendant quelques minutes seulement.
L’attentat de Halle, calqué sur celui de Christchurch
Le 9 octobre 2019, 7 mois à peine après l’attaque de Christchurch, Stephan Balliet, un allemande antisémite d’extrême droite tente d’entrer dans une synagogue de Halle, avant de tuer une passante et un homme dans un restaurant turc. L’attaque est filmée par l’assaillant en direct pendant 35 minutes sur la plateforme de streaming Twitch. Il publie un manifeste antisémite sur Meguca, forum également fréquenté par les internautes évoluant sur 8chan, qui sera fermé 2 jours plus tard.
Environ 2 200 personnes ont vu la vidéo de l’attaque, et même si celle-ci a vite été supprimée, elle a été copiée et était facilement accessible sur d’autres réseaux, à l’instar de celle de Christchurch.
La responsabilité des forums de discussions anonymes, l’exemple de 8chan
A la suite de ces attentats, certains forums ont été pointés du doigt. C’est le cas de 8chan, l’un des plus emblématiques, devenu tristement célèbre après l’attaque de Christchurch, ou celle d’El Paso au Texas (20 morts), du fait de sa fréquentation par chacun de leurs auteurs.
A l’origine, un site, 4chan, lancé dans les années 2000. C’est un repère d’activistes anarchistes. Dès 2011, des anciens participants du forum néonazi StormFront l’investissent, et les 2 groupes entament de violentes campagnes contre les féministes, qui sont réprimées par les modérateurs du site.
Fredrick Brennan, membre de 4chan, crée alors en 2013 le site satellite 8chan, où se mêlent à nouveau misogynie, antisémitisme et haine de l’islam. Déréférencé par Google en 2015 pendant quelques temps, abandonné par l’un de ses prestataires de services et par son fondateur lui-même après les attentats d’El Paso, le site a maintes fois provoqué des polémiques dans l’opinion publique.
Juridiquement parlant, 8chan, hébergé aux États-Unis, doit respecter la Loi américaine, pays où la liberté d’expression (1er amendement) est abordée de manière plus large qu’en France. Si les contenus pédopornographiques circulant sur le site sont répréhensibles, les discours et les idées néonazies ne le sont que si l’incitation à la haine est suivie d’effets concrets.
Après l’attentat de Christchurch, et au vu du rôle du forum dans cette attaque, les principaux fournisseurs d’accès à internet en Nouvelle-Zélande en ont bloqué l’accès sur le réseau mobile. Depuis août 2019, 8chan a fermé ses portes, mais ses participants ont migré sur un autre site, Endchan. Car même si la plateforme n’est plus en ligne, les refuges ne manquent pas pour les utilisateurs, et la poursuite de ceux-ci s’avère difficile voire presque impossible.
La réponse des plateformes, jugée insuffisante
Après la première attaque, les différentes plateformes ont été vivement critiquées, à commencer par Facebook. L’opinion publique lui a reproché de ne pas modérer suffisamment son site et d’avoir permis la diffusion de la vidéo de l’attaque pendant près de 17 minutes. Très vite, d’autres réseaux se sont retrouvés pointés du doigt, tels que YouTube, Twitch, ou Twitter. La difficulté majeure étant le live. Comment bloquer ce type de contenu alors que celui-ci est posté en direct ? Ne serait-ce pas de la censure d’interdire sa diffusion ?
La responsabilité des hébergeurs a été mise en cause. En effet, la réglementation les concernant n’est pas la même pour chaque pays. En France, c’est la LCEN (Loi pour la confiance dans l’économie numérique) du 21 juin 2004, issue de la directive européenne sur le commerce électronique de 2000, qui est applicable. Facebook est un hébergeur, tout comme Twitter, YouTube ou Twitch. A ce titre, ils n’ont pas d’obligation générale de surveillance. Ils peuvent voir leur responsabilité civile et/ou pénale engagée s’ils ont eu connaissance d’un contenu manifestement illicite ou parce qu’ils n’ont pas agi pour le retirer ou en rendre l’accès impossible dans des délais raisonnables (Article 6 LCEN).
Qu’en est-il à l’échelle mondiale ? Si ces plateformes ne sont pas tenues d’une obligation générale de surveillance, comment empêcher un contenu terroriste d’être publié en direct ?
Facebook est beaucoup intervenu sur le sujet. Si l’idéologie de suprématisme blanc est déjà interdite, l’entreprise américain prohibe désormais celles du nationalisme et du séparatisme blanc. De nombreux comptes et groupes d’extrême droite ont par ailleurs été supprimés. La société a annoncé, dans un communiqué publié juste après l’attaque de Christchurch, que toute personne ayant enfreint la politique du réseau se verrait interdire l’accès à Facebook Live pour une durée de 30 jours. Pour ce qui est des copies faites des vidéos postées, l’entreprise a investi 7,5 millions de dollars dans des partenariats avec des universités américaines pour développer des technologiques permettant de les détecter plus efficacement.
Si ces réponses semblent louables, certains les ont jugées insuffisantes. En effet, concernant Facebook Live, la durée d’interdiction de 30 jours reste courte, et pour que ce soit applicable, il faudrait que l’auteur ait déjà enfreint la politique du groupe. Beaucoup de personnes pourraient donc passer entre les mailles du filet.
La réponse des politiques
Face à cette problématique, les États ont eux aussi dû réagir. Le 15 mai 2019, peu de temps après l’attentat de Christchurch, un sommet international a eu lieu à Paris, présidé par le président Emmanuel Macron, et la première ministre néo-zélandaise Jacinda Ardern pour un « appel de Christchurch », soit un texte détaillant les engagements des États et des plateformes dans la lutte contre les contenus terroristes.
Certains pays adoptent de nouvelles législations. C’est le cas de l’Australie qui, avec un texte en date du 4 avril 2019, veut instaurer des peines d’amende plus fortes aux plateformes dans le cas où un contenu de ce type (terrorisme, viol, meurtre, suicide) ne serait pas supprimé dans un délais rapide après la mise en ligne (10 % du chiffe d’affaires mondial). Mais ce projet est limité, car il concerne uniquement les actes violents commis en Australie. Déjà critiqué, son devenir est incertain car il pourrait entraîner une censure beaucoup plus large que prévue des contenus.
En Europe, la directive SMA (Services des médias audiovisuels) en date du 14 novembre 2018, tend à vouloir modifier le statut de certains acteurs du numérique, tels que YouTube ou Twitch, en les qualifiant de “plateformes de partage de vidéos”. L’objectif serait de renforcer leur encadrement pour les responsabiliser d’avantage. L’étendu de l’applicabilité du texte est encore incertaine, et celui-ci pourrait concerner un très grand nombre de réseaux.
En France, le 9 juillet 2019 était votée à l’Assemblée Nationale la proposition de Loi Avia visant à lutter contre les discours haineux sur internet, avec entre autres, l’obligation pour les plateformes de retirer sous 24 heures les contenus manifestement illicites qui leur seraient signalés, sous peine d’une amende de 4 % de leur chiffre d’affaires. Mais le texte divise, on lui reproche d’entraîner une déresponsabilisation des États au profit des entreprises privées.
Plus récemment, Facebook a annoncé la création d’une nouvelle organisation, le Global Internet Forum to Counter Terrorism, avec comme partenaires Microsoft, Twitter, Google, Amazon, Linkedin et Whatsapp. La structure bénéficiera d’un personnel indépendant, d’un directeur exécutif, d’un comité consultatif dirigé par des acteurs non-gouvernementaux, où 6 pays (États-Unis, France, Royaume-Uni, Canada, Nouvelle-Zélande et Japon), l’ONU et l’Union Européenne pourront intervenir. Le but sera de « déjouer les tentatives de plus en plus sophistiquées des terroristes et des extrémistes violents pour se servir des plateformes numériques ».
Sources
« Haine en ligne : l’Assemblée adopte la loi Avia », Le Point, 09 juillet 2019
« Le cadre juridique relatif aux plateformes de partage de vidéos », Legipresse, 26 novembre 2018