Le 18 octobre 2017 la plateforme de partage de vidéos YouTube a établi un premier bilan des mesures prises en juin dernier afin de lutter contre les vidéos à « caractère violent ». En effet suite aux pressions de différents gouvernements tout au long du printemps les plateformes en ligne ont mis en place de nouvelles mesures afin d’empêcher la propagation de ce type de contenus. Dans les mesures adoptées par la société Youtube une retient particulièrement notre attention : la volonté de diminuer la visibilité des vidéos contenant des propos religieux controversés . La plateforme a par ailleurs institué une nouvelle sanction pour ces contenus dont les contours sont très flous.
Un enjeu de lutte contre les contenus illégaux pour les opérateurs de plateforme en ligne
Les plateformes comme YouTube se sont longtemps abritées derrière le statut d’hébergeur, celui-ci permettant, entre autre, de bénéficier d’une responsabilité limitée en cas de publication d’un contenu illégal. En effet, selon l’article 6-I-2 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique : l’hébergeur est celui qui exécute une prestation purement technique consistant dans « le stockage de signaux, d’écrits, d’images, de sons ou de messages de toute nature fournis par des destinataires de ces services ». En cela l’hébergeur se distingue de la personne de l’éditeur. Ce dernier a un rôle plus actif puisqu’il contrôle et organise la publication des contenus Cependant une plateforme comme YouTube ne pouvait être vue comme un simple hébergeur. En effet, la société procède à référencement des vidéos par le biais d’algorithmes mais peut également censurer les contenus ne respectant pas son règlement. Elle n’est pas non plus éditeur car elle ne valide pas ce qui est publié sur la plateforme. La loi pour une République numérique du 7 octobre 2016 a levé cette ambiguïté en consacrant le statut d’opérateur de plateforme en ligne. L’opérateur est soumis notamment à des obligations de loyauté et d’information renforcées. Cette loi s’inscrit dans un mouvement politique plus large visant à responsabiliser les acteurs de l’internet. L’influence d’un site comme Youtube est gigantesque : chaque jour, plus d’un milliard d’heures de vidéo sont visionnées sur le site, chaque mois c’est 1,5 milliards de personnes qui se rendent sur le site faisant de ce dernier le deuxième site le plus visité au monde.
Face à ce gigantisme il est logique que des pratiques illégales voient le jour sur le site internet. C’est cette grande visibilité qui a amené progressivement des obligations légales renforcées mais également qui a conduit la plateforme a adopté un règlement. Ce règlement fixe des interdictions de publication sur la nudité ou les vidéos à caractère sexuel, les contenus visuels choquant ou violent, les contenus incitant à la haine, les pratiques de harcèlement et de cyberintimidation… La plateforme a mis en place un système de signalement pour les utilisateurs. Quand un contenu inapproprié est posté, la personne peut le signaler. Dans ce cas les équipes de modérateurs visionnent le contenu et s’ils estiment qu’il est illégal, elles le suppriment dans les plus brefs délais (environ 48h après le signalement). Si le contenu ne paraît pas contrevenir à la loi ou au règlement il est laissé sur la plateforme. Ce procédé du signalement est une bonne méthode mais n’est pas suffisamment efficace étant donné la masse de vidéo postées chaque minute sur le site. C’est pourquoi Youtube, comme beaucoup d’autres grandes plateformes, a développé très fortement des intelligences artificielles. En juin 2017 la plateforme a annoncé le lancement d’une intelligence artificielle spécialisée dans le retrait des contenus faisant l’apologie du terrorisme ou de l’extrémisme violent. Cette intelligence repose sur le « machine learning ». Les modérateurs lui ont soumis un panel large des vidéos déjà supprimées de la plateforme à ce motif pour « l’entraîner ». En octobre les représentants de Youtube dressent un bilan très positif de l’usage de cette intelligence artificielle. « Plus de 83% des vidéos que nous avons supprimé parce qu’elles encourageaient l’extrémisme violent en septembre ont été modérées avant qu’elles ne soient signalées par un humain, un chiffre en hausse de huit points par rapport au mois d’août ». Evidemment l’application de ce genre de système entraîne le risque de suppression de vidéos qui sont à caractère informatif ou humoristique. Cela a été notamment le cas lorsque des vidéos de journalistes dénonçant des crimes commis en Syrie ont été retirées de la plateforme. Cependant ce risque est diminué par la volonté de ne pas tout faire reposer sur l’intelligence artificielle : le dernier mot est laissé à des modérateurs afin d’éviter le plus possible ce genre de situation.
La lutte contre les contenus violent, ou faisant l’apologie du terrorisme et de l’extrémisme continue mais cette fois un nouveau type de sanction est mis en place pour lutter contre les vidéos contenant « des propos religieux controversés ou suprémacistes ».
Une lutte élargie aux contenus religieux controversés
Ce qui peut sembler intrigant dans les mesures annoncées en juin c’est la possibilité de rendre moins visible les vidéos « qui ne sont pas illégales et ne violent pas les règles de Youtube mais qui contiennent des propos religieux controversés ou suprémacistes ». L’idée qui se dégage ici est celle de lutter contre les vidéos de propagande religieuse ou d’endoctrinement. Cependant le terme « controversé » et surtout l’absence totale d’une définition de ce qu’est un propos religieux controversé laisse planer un doute sur l’étendue des vidéos visées.
Le point intéressant de cette nouvelle mesure est le type de sanction mise en place. En effet, jusqu’à présent on pouvait supprimer la vidéo ou la laisser en ligne. Parfois on pouvait mettre un âge pour la visionner mais c’est à peu près tout. Or la nouvelle sanction prévoit que la vidéo est précédée d’un message d’avertissement, qu’elle est démonétisée, retirée de l’onglet des suggestions et ne peut plus être commentée ou aimée. Le but ici est de la rendre moins visible sur la plateforme. Cette possibilité de vidéos cachées ou « désuggérées » est intéressante car comme le disait la plateforme elle permet de respecter dans une certaine mesure la liberté d’expression. Cette sanction s’inscrit également parfaitement dans la vague de lutte contre les fakes news ou encore les vidéos complotistes. En effet une des techniques mises en place pour lutter contre les fakes news est de les faire précéder d’un message d’avertissement.
Cependant le risque pour la liberté d’expression, s’il est atténué, n’en semble pas moins très réel. Si on comprend les raisons morales et politiques de la mise en place de ce système il semble que le sujet soit délicat. L’absence d’une définition précise d’un propos religieux controversé laisse une porte ouverte à un trouble pour la liberté religieuse et pour la liberté d’expression des utilisateurs. Ce trouble réside dans l’utilisation des termes : ces vidéos ne sont ni illégales, ni contraires au règlement. Mais alors sur quels motifs la plateforme se base-t-elle pour les éclipser du site ?
Même si la vidéo n’est pas supprimée, la démonétisation, l’impossibilité de débattre dans l’espace commentaire et surtout la sortie de l’espace des suggestions ne peut la rendre visible qu’aux personnes déjà abonnées à la chaîne Youtube. La sanction n’en reste donc pas moins très sévère car le propos tenu dans la vidéo ne sera cantonné qu’à un public restreint voire très restreint dans certains cas.
De plus, cela interroge sur le rôle de Youtube : dans ce cas précis le rôle se rapproche beaucoup de celui de l’éditeur. L’opérateur de plateforme en ligne hiérarchise d’un côté les vidéos tout public et de l’autre restreint l’accès aux vidéos controversées, sans préciser dans un règlement général les critères de cet accès restrictif. Comme souvent l’opacité des méthodes utilisées par la société Youtube ne permet pas de savoir quel est l’impact de cette nouvelle mesure. Il est cependant probable que des conflits naissent entre la société et les personnes qui seront visées par la nouvelle sanction ce qui permettrait de clarifier les critères de sélection des vidéos controversées.
SOURCES
ANONYME, « Youtube détaille ses nouvelles mesures contre le contenu violent », site www.lemonde.fr, mis en ligne le 18 octobre 2017, consulté le 11 novembre 2017
BENSOUSSAN-BRULÉ (V.), « Plateformes en ligne : une obligation de loyauté renforcée », site www.alain-bensoussan.com, mis en ligne le 17 octobre 2016, consulté le 11 novembre 2017
LAUSSAN (J.), « Youtube a retiré par erreur des vidéos montrant les crimes commis en Syrie », site www.numerama.com, mis en ligne le 24 août 2017, consulté le 11 novembre 2017
PIGNOL (J.), « Chiffres Youtube 2017 », site www.blogdumoderateur.com, mis en ligne le 10 octobre 2017, consulté le 11 novembre 2017
SIRE (G.), « Facebook, YouTube, Twitter : hébergeurs ou éditeurs ? » site www.inoglobal.fr, mis en ligne le 28 octobre 2016, consulté le 11 novembre 2017
WALKER (K.), « Four steps we’re taking today to fight terrorism online », site www.blog.google, mis en ligne le 18 juin 2017, consulté le 11 novembre 2017