Navigation : IREDIC / 2019 / décembre / 11 / De Christchurch à Halle, quand le terrorisme s’invite en direct sur les plateformes

Connexion

Inscription

Logo

Institut de Recherche et d'Études en Droit de l'Information et de la Culture

Menu

Skip to content
  • L’institut
    • Présentation
    • Equipe administrative
    • Equipe de direction
    • Partenaires
    • Actualités de l’Institut
  • M1 Droit du Numérique
    • Présentation
    • Équipe Pédagogique
  • M2 Droit des communications électroniques
    • Présentation
    • Équipe Pédagogique
    • Promotion
    • Annales
    • Documents pédagogiques
  • M2 Droit des Industries culturelles et créatives
    • Présentation
    • Équipe pédagogique
  • M2 Droit Journalisme Communication
    • Présentation
    • Équipe Pédagogique
    • Site du Magistère
    • Fiche ROF
  • M2 Droit des données numériques
    • Présentation
  • Travaux et Projets
    • Données numériques
    • Télévision
    • Radio
    • Presse
    • Cinéma
    • Internet / Numérique
    • Télécommunications
    • Publicité
    • Droit d’auteur
    • Autorités de régulation
    • Corpus des législations
Navigation : IREDIC / 2019 / décembre / 11 / De Christchurch à Halle, quand le terrorisme s’invite en direct sur les plateformes

De Christchurch à Halle, quand le terrorisme s’invite en direct sur les plateformes

Publié par Lisa KELLER le 11 décembre 2019 dans Données numériques : Actualités, Internet / Numérique : Actualités, Notes d'actualité | Consulté 648 Fois

      Le 9 octobre 2019, à Halle en Allemagne, un terroriste néo-nazi de 27 ans tuait 2 personnes et en blessait 2 autres dans un attentat contre une synagogue. Durant 35 minutes, la vidéo de l’attaque était diffusée en direct sur la plateforme de streaming Twitch. Cette affaire n’est pas sans rappeler celle des attentats de Christchurch en mars 2019 en Nouvelle-Zélande. L‘attaque perpétrée contre 2 synagogues et qui a fait 51 morts avait été diffusée en direct sur Facebook, pendant 17 minutes.

Ces 2 cas posent la question de la responsabilité des plateformes quant à la diffusion d’une forme particulière de contenu illicite : les attaques terroristes. Comment éviter que celles-ci se retrouvent librement accessibles par tous ? Et comment empêcher leur mise en ligne sans censurer l’ensemble des contenus ?

Le choc de l’attentat de Christchurch

      Le 15 mars 2019, Brenton Tarrant, immigré australien d’extrême droite, ouvre le feu sur 2 bâtiments religieux, Masjid al-Noor et Linwoord à Christchurch en Nouvelle-Zélande. Le bilan est de 51 morts. C’est l’attaque la plus meurtrière qu’ait connu le pays depuis 1809.

Avant la fusillade, le tireur diffuse des photos de sa préparation sur Twitter. Puis, via le forum 8chan – où se rassemblent de manière anonyme des internautes d’extrême droite – il publie un manifeste de 78 pages exposant ses motivations et annonce que l’attaque sera diffusée en direct sur Facebook, en mettant un lien vers celle-ci. Pendant plus de 17 minutes, à l’aide d’une GoPro, la tuerie est filmée. Ces images insoutenables et d’une extrême violence sont visibles sur le profil Facebook de l’assaillant. La vidéo est commentée, likée, copiée. Sur le forum 8chan, le tueur incite même les internautes à diffuser ce contenu au maximum, pour en augmenter la visibilité.

Facebook, alerté par les autorités néo-zélandaises, supprime la page hébergeant la vidéo. Mais les images, déjà copiées, se retrouvent rapidement sur de nombreux réseaux et plateformes tels que YouTube, Twitter ou Instagram. Le direct est visionné par 200 personnes, pour un total de 4 000 vues avant sa suppression. Dans un communiqué, l’entreprise américaine détaille que 1,5 million de vidéos de l’attentat ont été supprimées dans les 24 heures suivantes.

L’outil Facebook Live date de 2016. Avant Christchurch, plusieurs scènes violentes avaient déjà suscité des polémiques (viols collectifs, actes de torture, suicides, meurtres). Mais cette nouvelle forme de violence met en évidence les failles des systèmes de modération des plateformes, et la difficulté d’empêcher que de tels contenus se retrouvent accessibles sur les réseaux, même pendant quelques minutes seulement.

L’attentat de Halle, calqué sur celui de Christchurch

      Le 9 octobre 2019, 7 mois à peine après l’attaque de Christchurch, Stephan Balliet, un allemande antisémite d’extrême droite tente d’entrer dans une synagogue de Halle, avant de tuer une passante et un homme dans un restaurant turc. L’attaque est filmée par l’assaillant en direct pendant 35 minutes sur la plateforme de streaming Twitch. Il publie un manifeste antisémite sur Meguca, forum également fréquenté par les internautes évoluant sur 8chan, qui sera fermé 2 jours plus tard.

Environ 2 200 personnes ont vu la vidéo de l’attaque, et même si celle-ci a vite été supprimée, elle a été copiée et était facilement accessible sur d’autres réseaux, à l’instar de celle de Christchurch.

La responsabilité des forums de discussions anonymes, l’exemple de 8chan

     A la suite de ces attentats, certains forums ont été pointés du doigt. C’est le cas de 8chan, l’un des plus emblématiques, devenu tristement célèbre après l’attaque de Christchurch, ou celle d’El Paso au Texas (20 morts), du fait de sa fréquentation par chacun de leurs auteurs.

A l’origine, un site, 4chan, lancé dans les années 2000. C’est un repère d’activistes anarchistes. Dès 2011, des anciens participants du forum néonazi StormFront l’investissent, et les 2 groupes entament de violentes campagnes contre les féministes, qui sont réprimées par les modérateurs du site.

Fredrick Brennan, membre de 4chan, crée alors en 2013 le site satellite 8chan, où se mêlent à nouveau misogynie, antisémitisme et haine de l’islam. Déréférencé par Google en 2015 pendant quelques temps, abandonné par l’un de ses prestataires de services et par son fondateur lui-même après les attentats d’El Paso, le site a maintes fois provoqué des polémiques dans l’opinion publique.

Juridiquement parlant, 8chan, hébergé aux États-Unis, doit respecter la Loi américaine, pays où la liberté d’expression (1er amendement) est abordée de manière plus large qu’en France. Si les contenus pédopornographiques circulant sur le site sont répréhensibles, les discours et les idées néonazies ne le sont que si l’incitation à la haine est suivie d’effets concrets.

Après l’attentat de Christchurch, et au vu du rôle du forum dans cette attaque, les principaux fournisseurs d’accès à internet en Nouvelle-Zélande en ont bloqué l’accès sur le réseau mobile. Depuis août 2019, 8chan a fermé ses portes, mais ses participants ont migré sur un autre site, Endchan. Car même si la plateforme n’est plus en ligne, les refuges ne manquent pas pour les utilisateurs, et la poursuite de ceux-ci s’avère difficile voire presque impossible.

La réponse des plateformes, jugée insuffisante

      Après la première attaque, les différentes plateformes ont été vivement critiquées, à commencer par Facebook. L’opinion publique lui a reproché de ne pas modérer suffisamment son site et d’avoir permis la diffusion de la vidéo de l’attaque pendant près de 17 minutes. Très vite, d’autres réseaux se sont retrouvés pointés du doigt, tels que YouTube, Twitch, ou Twitter. La difficulté majeure étant le live. Comment bloquer ce type de contenu alors que celui-ci est posté en direct ? Ne serait-ce pas de la censure d’interdire sa diffusion ?

La responsabilité des hébergeurs a été mise en cause. En effet, la réglementation les concernant n’est pas la même pour chaque pays. En France, c’est la LCEN (Loi pour la confiance dans l’économie numérique) du 21 juin 2004, issue de la directive européenne sur le commerce électronique de 2000, qui est applicable. Facebook est un hébergeur, tout comme Twitter, YouTube ou Twitch. A ce titre, ils n’ont pas d’obligation générale de surveillance. Ils peuvent voir leur responsabilité civile et/ou pénale engagée s’ils ont eu connaissance d’un contenu manifestement illicite ou parce qu’ils n’ont pas agi pour le retirer ou en rendre l’accès impossible dans des délais raisonnables (Article 6 LCEN).

Qu’en est-il à l’échelle mondiale ? Si ces plateformes ne sont pas tenues d’une obligation générale de surveillance, comment empêcher un contenu terroriste d’être publié en direct ?

Facebook est beaucoup intervenu sur le sujet. Si l’idéologie de suprématisme blanc est déjà interdite, l’entreprise américain prohibe désormais celles du nationalisme et du séparatisme blanc. De nombreux comptes et groupes d’extrême droite ont par ailleurs été supprimés. La société a annoncé, dans un communiqué publié juste après l’attaque de Christchurch, que toute personne ayant enfreint la politique du réseau se verrait interdire l’accès à Facebook Live pour une durée de 30 jours. Pour ce qui est des copies faites des vidéos postées, l’entreprise a investi 7,5 millions de dollars dans des partenariats avec des universités américaines pour développer des technologiques permettant de les détecter plus efficacement.

Si ces réponses semblent louables, certains les ont jugées insuffisantes. En effet, concernant Facebook Live, la durée d’interdiction de 30 jours reste courte, et pour que ce soit applicable, il faudrait que l’auteur ait déjà enfreint la politique du groupe. Beaucoup de personnes pourraient donc passer entre les mailles du filet.

La réponse des politiques

      Face à cette problématique, les États ont eux aussi dû réagir. Le 15 mai 2019, peu de temps après l’attentat de Christchurch, un sommet international a eu lieu à Paris, présidé par le président Emmanuel Macron, et la première ministre néo-zélandaise Jacinda Ardern pour un « appel de Christchurch », soit un texte détaillant les engagements des États et des plateformes dans la lutte contre les contenus terroristes. 

Certains pays adoptent de nouvelles législations. C’est le cas de l’Australie qui, avec un texte en date du 4 avril 2019, veut instaurer des peines d’amende plus fortes aux plateformes dans le cas où un contenu de ce type (terrorisme, viol, meurtre, suicide) ne serait pas supprimé dans un délais rapide après la mise en ligne (10 % du chiffe d’affaires mondial). Mais ce projet est limité, car il concerne uniquement les actes violents commis en Australie. Déjà critiqué, son devenir est incertain car il pourrait entraîner une censure beaucoup plus large que prévue des contenus.

En Europe, la directive SMA (Services des médias audiovisuels) en date du 14 novembre 2018, tend à vouloir modifier le statut de certains acteurs du numérique, tels que YouTube ou Twitch, en les qualifiant de “plateformes de partage de vidéos”. L’objectif serait de renforcer leur encadrement pour les responsabiliser d’avantage. L’étendu de l’applicabilité du texte est encore incertaine, et celui-ci pourrait concerner un très grand nombre de réseaux.

En France, le 9 juillet 2019 était votée à l’Assemblée Nationale la proposition de Loi Avia visant à lutter contre les discours haineux sur internet, avec entre autres, l’obligation pour les plateformes de retirer sous 24 heures les contenus manifestement illicites qui leur seraient signalés, sous peine d’une amende de 4 % de leur chiffre d’affaires. Mais le texte divise, on lui reproche d’entraîner une déresponsabilisation des États au profit des entreprises privées.

Plus récemment, Facebook a annoncé la création d’une nouvelle organisation, le Global Internet Forum to Counter Terrorism, avec comme partenaires Microsoft, Twitter, Google, Amazon, Linkedin et Whatsapp. La structure bénéficiera d’un personnel indépendant, d’un directeur exécutif, d’un comité consultatif dirigé par des acteurs non-gouvernementaux, où 6 pays (États-Unis, France, Royaume-Uni, Canada, Nouvelle-Zélande et Japon), l’ONU et l’Union Européenne pourront intervenir. Le but sera de « déjouer les tentatives de plus en plus sophistiquées des terroristes et des extrémistes violents pour se servir des plateformes numériques ».


Sources

William Audureau., « De l’attentat de Christchurch à celui en Norvège, le forum extrémiste 8chan a migré », Le Monde, 12 août 2019

Damien Leloup et Martin Untersinger., « Attentat en Nouvelle-Zélande : le spectre de la radicalisation en ligne », Le Monde, 15 mars 2019

Damien Leloup et William Audureau., « Attentat d’El Paso : 8chan, vivier en ligne du terrorisme d’extrême droite », Le Monde, 18 mars 2019

Michaël Szadkowski et Damien Leloup., « Après l’attentat de Christchurch, Facebook, YouTube et Twitter accusés de mal modérer les discours haineux », Le Monde, 21 mars 2019

Michaël Szadkowski et Damien Leloup., « Modération de la haine suprémaciste : ce que font (ou pas) Facebook, YouTube et Twitter depuis Christchurch », Le Monde, 29 avril 2019

Michaël Szadkowski et Morgane Tual., « La vidéo de l’attentat terroriste en Nouvelle-Zélande diffusée en direct sur Facebook », Le Monde, 15 mars 2019

Martin Untersinger., « La France et la Nouvelle-Zélande lancent l’« appel de Christchurch » contre le terrorisme en ligne », Le Monde, 15 mai 2019

« Attentat de Christchurch : un Néo-Zélandais suprémaciste emprisonné pour avoir diffusé la vidéo du massacre », Le Monde, 18 juin 2019

« Attentat de Halle : le forum utilisé pour diffuser le « manifeste » fermé deux jours plus tard », Le Monde, 16 octobre 2019

« Ce que prévoit Facebook pour limiter la diffusion en direct d’images terroristes », Le Monde, 15 mai 2019

« En Allemagne, l’auteur de l’attentat de Halle a avoué sa motivation antisémite », Le Monde, 11 octobre 2019

« Facebook, Google et Twitter lancent une structure indépendante de lutte contre l’extrémisme », Le Monde, 24 septembre 2019

« L’Australie adopte une loi punissant les réseaux sociaux qui ne modèrent pas assez vite les images d’actes terroristes », Le Monde, 4 avril 2019

Marion SIMON-RAINAUD., « Avant d’être supprimée par Facebook, la vidéo de l’attentat en Nouvelle-Zélande a été vue 4000 fois », 01net, 19 mars 2019

« Attaque antisémite en Allemagne : le tireur s’est filmé en direct pendant 35 minutes », Le Parisien, 10 octobre 2019

« Attentat de Halle : l’attaque retransmise en direct, la vidéo toujours accessible », Le Dauphiné, 10 octobre 2019

« Haine en ligne : l’Assemblée adopte la loi Avia », Le Point, 09 juillet 2019

« Le cadre juridique relatif aux plateformes de partage de vidéos », Legipresse, 26 novembre 2018

 

Publié dans Données numériques : Actualités, Internet / Numérique : Actualités, Notes d'actualité | Tag(s) : attentats, Christchurch, Directive "SMA", Facebook, Facebook Live, Halle, hébergeur de contenu, hébergeurs, LCEN, loi avia, lutte contre le terrorisme, plateforme, réseaux sociaux, terrorisme, twitch, twitter

Rechercher une publication

Catégories

Travaux récents

  • Missing image

    Les enjeux juridiques du sampling en droit d’auteur : à la recherche d’un équilibre entre création musicale et protection des oeuvres originales

    5 mai 2025 / Solene SOLENE
  • Missing image

    Le DATA ACT, un règlement en faveur d’une exploitation des données industrielles

    5 mai 2025 / KBBLUM-GROSS Kim
  • Missing image

    Publication du rapport du Conseil supérieur de la propriété littéraire et artistique relatif à la condition de transparence des données d’entrainement des intelligences artificielles

    5 mai 2025 / Augustin RENAUX
  • La difficulté d’interprétation de la loi LANG relative au prix du livre unique

    5 mai 2025 / Capucine PINEAU-CHEVALIER
  • LA DOUBLE PEINE : LES DANGERS DU PROCÈS MÉDIATIQUE

    5 mai 2025 / Lou Dagnac

© 2025 IREDIC - Mentions Légales

Menu

Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site web. Vous acceptez leur utilisation en poursuivant la navigation.J'ACCEPTE