Le 17 octobre 2016, les plateformes Facebook Live et Périscope ont diffusé le lancement de la bataille de Mossoul durant trois heures de direct. « C’est la première fois qu’une guerre est relayée au grand public via des plateformes vidéos en direct » précise le journal Le Figaro. Les images ont ainsi été filmées par la télévision kurde Rudaw et ont été retransmises par plusieurs chaînes d’informations telles que la chaîne qatarie Al-Jazeera ou le groupe britannique Chanel 4. Mais ces réseaux sociaux sont-ils adaptés à ce type de contenus ? Leur responsabilité peut-elle être engagée ?
Facebook Live, un nouveau média symbole de la mutation du traitement de l’information
Les internautes n’étaient pas préparés à se retrouver face à de tels contenus. L’afflux de critiques ne s’est d’ailleurs pas fait attendre. On a ainsi pu lire sur Twitter par exemple : « Le XXIème siècle, une époque où tu peux diffuser en direct des combats pendant que Facebook nous encourage à réagir avec des smileys ». Il était en effet possible de « liker » et de réagir par des « émojis », de la même manière qu’on le ferait pour une rediffusion d’un spectacle de marionnettes. Disons-le clairement, l’objectif du média kurde et de Facebook était de faire de l’audience et l’émission Tech24 diffusée sur France 24 le 21 octobre 2016 a clairement nommé le direct de « spectacle ». Un problème d’éthique est donc soulevé. Et pourtant la chaine Kurde Rudaw s’est montrée très fière d’avoir produit des images exclusives précise le journal Courrier International.
Aucune autorité de régulation n’ayant été mise en place en matière de communication au public en ligne, aucun contrôle sur les acteurs de l’Internet et sur leur politique ne peut être réalisé. De même, aucune règle précise ne permet de clarifier cet ensemble. Cette absence de « gardien » des réseaux qui comportent du live est à craindre, un accès à des images choquantes et dégradantes étant considérablement facilité, insiste le sociologue des médias François JOST. Le rôle neutre que les plateformes revendiquent pour ne pas voir leur responsabilité engagée implique alors que n’importe quel contenu violent ou non, partial ou non peut être librement diffusé en direct.
Dans la télévision traditionnelle, en France, le Conseil Supérieur de l’Audiovisuel (C.S.A) veille au respect des grands principes déontologiques tels que la dignité de la personne humaine ou l’interdiction de l’incitation à la violence et à l’apologie du terrorisme. Son action préventive se traduisant par la définition du cahier des charges des éditeurs publics, la conclusion des conventions avec les acteurs privés et par ses recommandations, ainsi que son action répressive par le biais de sanctions permet de faire respecter ces règles et d’éviter ou de condamner toute atteinte à l’ordre public.
Cependant nous sommes en pleine mutation des médias et du traitement des informations et un cadre juridique doit être défini au plus vite. D’autant plus qu’aujourd’hui cette diffusion en live n’a pas pour seul objet la guerre mais peut aussi permettre à des utilisateurs d’assister en direct au suicide d’une jeune fille ou à son viol, tel que ce fut le cas sur Périscope.
Éditeur ou hébergeur de contenu voyeuriste, quel degré de responsabilité ?
Aucune décision de justice n’ayant été rendue en la matière et l’apparition de ces plateformes en live étant toute récente, il est difficile de se prononcer sur leur responsabilité. Si l’on prend l’exemple de Facebook, qui met à disposition sa fonctionnalité en live depuis décembre 2015, il s’agit d’un hébergeur en sa qualité de simple prestataire technique qui se contente de stocker des contenus au sens de la loi « pour la Confiance dans l’Economie Numérique » (LCEN) du 21 juin 2004. Mais il est aussi éditeur lorsqu’il organise la manière dont les contenus sont diffusés et qu’il n’a pas un rôle passif. Tous les sites ont un intérêt stratégique à invoquer le bénéfice du statut d’hébergeur puisqu’ils ont une responsabilité limitée par rapport au contenu mis en ligne par d’autres selon l’article 6 de la même loi. La Cour de cassation, dans son arrêt du 17 février 2011, « Nord-Ouest Production » avait jugé que Dailymotion n’était qu’un simple prestataire technique lorsqu’il n’offrait aucun choix de classement de la vidéo litigieuse, et que ce classement était mis en œuvre par l’internaute. Ainsi, Facebook Live, lorsqu’il se contente de simplement donner accès à la page du média kurde Rudaw qui diffuse en direct les images d’une bataille, n’a pas de rôle d’éditorialisation des contenus, il ne fait qu’y donner accès. La responsabilité limitée d’hébergeur semble donc lui être applicable en l’espèce si un contenu s’avérait manifestement illicite.
En revanche, responsabilité limitée ne signifie pas irresponsabilité. Si le réseau social diffusait lui-même ces vidéos en direct, ou les éditait en les classant, les transformant, les mettant en relief, alors il serait considéré comme un éditeur. Par ailleurs, si ces vidéos étaient signalées à plusieurs reprises par des utilisateurs en raison de leur caractère illicite et que la plateforme n’agissait pas promptement pour les retirer ou en rendre l’accès impossible à compter de leur connaissance, alors elle pourrait voir sa responsabilité d’hébergeur engagée.
Sur quels motifs sa responsabilité pourrait-elle être engagée ? L’article 6 I 7° alinéa 3 de la LCEN énonce une série d’infractions contre lesquelles les hébergeurs doivent lutter sur Internet, car susceptibles de porter une atteinte manifeste à l’ordre public. Or la diffusion en direct d’un conflit, sans commentaires de la part des journalistes qui filment l’opération, avec des plans resserrés et sans qu’aucun montage n’ait été réalisé pour mettre en scène la bataille, pourrait constituer une incitation à la violence voire même une incitation à la commission d’actes terroristes et une atteinte à la dignité de la personne humaine. Le spectateur doit alors parvenir à prendre du recul par rapport à ces images pour les rendre intelligibles, et là réside l’enjeu de ces réseaux sociaux live qui ne sont pas adaptés à ce rôle médiatique.
Selon Guillaume SIRE, maître de conférences à l’Institut Français de Presse, « il semble indispensable de créer un statut intermédiaire qui serait plus contraignant que celui d’hébergeur, sans pour autant relever du même régime de responsabilité que celui du statut d’éditeur. » Les sénateurs Laurent BETEILLE (Les Républicains) et Richard YUNG (Partie socialiste) préconisaient d’ailleurs en 2011, « la création d’une troisième catégorie d’acteurs, en plus de celles d’éditeur et d’hébergeur, qui serait celle « d’éditeur de service », afin d’être en mesure de « lui appliquer un régime de responsabilité intermédiaire, plus clément que celui de l’éditeur mais plus sévère que celui de l’hébergeur » ».
Le cas de Facebook live et du conflit de Mossoul est donc complexe. Les vidéos sont, semble-t-il, apparues sur le fil d’actualité de certains internautes, les algorithmes ayant certainement détecté leur intérêt pour le sujet à travers leur profil.
Le jugement de la violence d’une information laissé à un algorithme
Si Facebook a allégé sa politique en matière de contenus choquants lorsqu’ils sont d’actualité et que l’objectif est l’information du public et non pas l’apologie du terrorisme et de la violence, il n’en reste pas moins que ce sont des algorithmes qui sont mis en œuvre pour les « gérer ». Un algorithme est une suite finie d’instructions à exécuter dans le bon ordre pour obtenir un résultat ou résoudre un problème. Les réseaux sociaux mettent en œuvre des algorithmes prédictifs qui, selon le professeur Lêmy D. Godefroy mettent « en corrélation des données issues d’une infinité de traces laissées par une multitude d’internautes puis qui dressent des sociotypes comportementaux pour adresser une offre personnalisée ».
Mais une suite de chiffre est-elle à même de décider si un contenu est trop violent et trop incitateur pour être diffusé ou s’il est nécessaire à l’information du public ? Non, elle ne l’est pas, ou du moins n’a pas été programmée pour cette finalité. Les algorithmes doivent normalement mettre en avant les contenus que les internautes sont le plus susceptibles d’aimer. Mais on remarque que ces logiciels ne sont pas totalement neutres et qu’une hiérarchie des valeurs est de plus en plus intégrée dans les codes informatiques. En effet, derrière la machine, se trouve le programmateur, un homme avec des opinions, des préférences, une identité personnelle et qui exploite et répond à des directives de ses supérieurs. Son objectif est d’orienter le choix du consommateur. Or si Facebook Live trouve un intérêt économique à diffuser les images filmées par la chaîne Rudaw, l’algorithme suivra. Car ne perdons pas de vue que l’objectif de telles entreprises est toujours le profit. C’est ce qu’avait démontré Lawrence Lessig, célèbre professeur à l’université d’Harvard dans son ouvrage « Code is Law ». Selon lui, un algorithme est un instrument de régulation susceptible de servir les intérêts de ceux qui l’ont programmé et qui en tirent partie. Facebook a par exemple été accusé de mettre en avant les contenus favorables à la candidate Hillary Clinton, relayant au second plan Donald Trump.
Cette orientation du choix des internautes par Facebook, Google et « autres », en fonction de leurs attentes, risque de provoquer une perte de libre arbitre et de porter atteinte au tout récent droit à l’auto-détermination informationnelle. C’est la loi du 7 octobre 2016 pour une « République Numérique » qui a instauré ce droit en modifiant l’article 1 de la loi du 6 janvier 1978 sur les données personnelles. Ce droit permet à un individu d’avoir une maitrise sur les informations qui le concernent. Jusqu’à présent en effet les législations se concentraient exclusivement sur la protection des données à caractère personnel sans chercher à ériger un cadre juridique pour ce qui se cachait derrière la collecte de ces données ; le traitement par des logiciels algorithmiques. Or à présent, il semblerait possible pour les internautes dérangés par la violence de certains directs, d’agir sur le fondement de la protection des données à caractère personnel. Facebook avait en effet été qualifié de « responsable de traitement » par la Cour de Justice de l’Union Européenne dans son arrêt Costeja du 13 mai 2014 (aff. C-131/12) au sens de la directive de 1995 95/46/CE. Une obligation d’information de la personne qui est l’objet de l’algorithme incomberait donc à présent à Facebook quant à la communication et l’emploi de ses données. Tout manquement à ses obligations par le responsable de traitement permettrait à l’internaute d’agir sur le fondement de la loi de 1978.
La prise en compte par le droit français de l’influence des algorithmes dans la hiérarchisation des contenus pourrait ainsi permettre d’encadrer l’exercice par des plateformes de leur nouveau rôle de média. Par conséquent, un utilisateur pourrait soit engager la responsabilité d’éditeur puisqu’un processus d’éditorialisation serait finalement mis en œuvre indirectement par ces suites de chiffres, mais il pourrait aussi invoquer l’atteinte au droit à l’auto-détermination informationnelle récemment consacré.
SOURCES :
ANONYME, « Guerre en direct, la bataille de Mossoul diffusée via Facebook Live », france24.com, mis en ligne le 21 octobre 2016, consulté le 9 novembre 2016, http://www.france24.com/fr/20161021-facebooklive-mossoul-direct-periscope-emojis-rudaw-rwanda-drones-sang-manusvr-vr-realitevir.
BRAUN (E.), « Avec la bataille de Mossoul, la guerre surgit en direct sur Facebook », lefigaro.fr, mis en ligne le 19 octobre 2016, consulté le 3 novembre 2016, http://linkis.com/www.lefigaro.fr/sect/g1l9N.
ANONYME, « Réseaux sociaux. Liker l’offensive de Mossoul en direct depuis Facebook Live », courrierinternational.com, mis en ligne le 24 octobre 2016, consulté le 9 novembre 2016, http://www.courrierinternational.com/video/reseaux-sociaux-liker-loffensive-de-mossoul-en-direct-depuis-facebook-live.
GODEFROY D. (L.), « Pour un droit du traitement des données par les algorithmes prédictifs dans le commerce électronique », Dalloz, 2016, n°39, p. 438, consulté le 15 novembre 2016.
FOREST (D.), « Facebook interroge la souveraineté numérique », IP/IT, 2016, n°10, p. 263., consulté le 15 novembre 2016.
ROLLAND (S.), « Les algorithmes de Facebook sous le feu des critiques », latribune.fr, mis en ligne le 13 septembre 2016, consulté le 15 novembre 2016, http://www.latribune.fr/technos-medias/internet/les-algorithmes-de-facebook-sous-le-feu-des-critiques-598794.html.