Alors que l’information n’a jamais été diffusée aussi facilement, rapidement et massivement, les différents acteurs du web 2.0 ont pris conscience du vecteur qu’ils représentaient dans cette diffusion. Aussi de nombreux géants, à l’instar de Meta, Youtube, Twitter ou Dailymotion, ont-ils fait de la lutte contre la désinformation et les contenus à caractère haineux un nouvel objectif. Spotify, service de streaming audio, semble de plus en plus empreint de cette volonté. Hébergeant plus de trois millions de podcasts, Spotify a un rôle déterminant dans la diffusion des opinions et idées, celle-ci étant désormais facilitée par son service de podcast dont l’utilisation est en expansion depuis ces dernières années. La vigilance de Spotify à cet égard se matérialise par l’inaccessibilité opérée sur certains titres, albums et émissions de podcasts jugés « préjudiciables ». On peut citer pour l’exemple l’émission d’Alain Soral, ERFM, complètement évincée par la plateforme, ou encore celle de Joe Rogan, The Joe Rogan Experience, accusée de diffuser de fausses informations sur le Covid-19, dont certains épisodes ont été rendus inaccessibles.
Si le géant suédois coopérait déjà avec Kinzen, start-up spécialisée dans la détection de contenus « préjudiciables », ce n’est que le 5 octobre 2022 que Spotify officialise son rachat.
La start-up irlandaise doit son expertise notoire en matière de détection de contenus « nuisibles » à la combinaison d’une « expertise humaine » et d’une « technologie de Machine Learning ». Mais qu’est-ce que le « Machine Learning » ? Et qu’entend-elle par « expertise humaine » ?
Le Machine Learning est une forme d’intelligence artificielle consistant à entraîner un robot à détecter les problèmes pour lesquels il est conçu à partir d’une base de données reproduisant des situations similaires. Si Spotify se dote d’une telle technologie par l’acquisition de Kinzen, elle n’en est cependant pas la pionnière. Face à la diffusion de plus en plus importante de fausses informations, de contenus à caractère haineux et face également à la quantité de violations de droits d’auteur par le biais de leurs services, nombreux sont ceux qui recourent à une modération se voulant plus performante en faisant le choix d’opter pour une modération faisant intervenir une intelligence artificielle. Youtube utilise par exemple le Content ID en vue de réprimer plus aisément le contenu protégé par la propriété intellectuelle.
Néanmoins, que ce soit par l’usage du Content ID par Youtube ou par l’usage d’une technologie de Machine Learning combinée à une « expertise humaine » par Spotify, ces nouveaux procédés de modération interrogent sur la place laissée à l’exercice du droit à la liberté d’expression des utilisateurs.
Confier à une IA ainsi qu’à des humains la modération des contenus suppose de définir précisément et sans équivoque les contenus qui tombent sous la qualification de « nuisibles ». Kinzen prend soin de définir ce qu’elle entend par là en dégageant quatre principaux types de contenus. Pour Kinzen, un « contenu nuisible » s’apparente à l’un des contenus suivants :
– désinformation dangereuse,
– contenu haineux,
– contenu violent,
– extrémisme violent et mouvements dangereux.
Alors que la désinformation suppose des mécanismes de fact checking, les « contenus haineux » et « violents » peuvent largement prêter à interprétation.
Focus sur le rôle des plateformes en ligne : quel cadre juridique ?
L’officialisation du rachat de la société Kinzen par Spotify est révélatrice à l’égard du rôle de Spotify dans la régulation des contenus. À quel cadre juridique Spotify obéit-il précisément ?
C’est la directive 2000/31/CE dite « e-commerce » du 8 juin 2000 qui pose la première pierre en définissant un régime d’irresponsabilité fondé sur la neutralité des hébergeurs. Selon cette directive, les hébergeurs de contenus ne peuvent être tenus pour responsables des activités et informations stockées sauf s’ils ont connaissance de leur caractère illicite. Auquel cas, ils sont dans l’obligation de les rendre inaccessibles de manière prompte.
Finalement, le « Digital Services Act », définitivement adopté par le Parlement européen ce 5 juillet, succèdera à la directive e-commerce, jugée obsolète. Le projet de règlement européen pose un cadre juridique en imposant aux nouveaux acteurs numériques de plus en plus puissants (market places, réseaux sociaux, plateformes de partage de contenus) des exigences quant à la lutte contre la diffusion des contenus à caractère illicite, plus ou moins strictes selon leur influence.
En pratique, Spotify s’adaptait difficilement au texte de 2000. En 2020, Spotify faisait déjà appel à l’expertise de Kinzen dans le but de contrôler les contenus audio. Spotify ne se contente pas d’être un support de diffusion mais vise véritablement à réguler les contenus qu’il héberge. À ce titre, il peut difficilement prétendre au régime d’irresponsabilité mis en avant par la directive e-commerce. En mettant en place des moyens plus performants dans la régulation de ses contenus, Spotify a obéi à un cadre juridique en constante évolution et qui n’a été formalisé que récemment.
Le recours à une technologie de Machine Learning : quel(s) risque(s) pour le droit à la liberté d’expression ?
Spotify, en devenant une plateforme influente d’écoute de podcasts, a une responsabilité accrue en ce qui concerne la diffusion de contenus à caractère illicite. Face à un tel succès, la plateforme de streaming audio a pris la décision logique d’opter pour un algorithme qui vise à déceler les contenus à caractère illicite en vue de réprimer plus efficacement les contenus « nuisibles ». En quoi le recours à une technologie de Machine Learning est une menace au droit à la liberté d’expression dans un tel contexte ?
Le fonctionnement du « Machine Learning » ou « apprentissage automatique » repose sur grande base de données permettant à une intelligence artificielle de détecter automatiquement les contenus auxquels elle est entraînée. Ce mécanisme est donc particulièrement intéressant pour déceler les contenus qui présentent un caractère non équivoque.
Cependant, le recours à un algorithme interpelle à plusieurs égards pour ce qui est des contenus à caractère haineux et/ou violent.
– D’une part, l’algorithme ne détecte pas nécessairement les subtilités des messages à caractère haineux, échappant alors au filtre automatique.
– D’autre part, l’algorithme est à même de faire des erreurs de jugement, c’est-à-dire de détecter un contenu qui n’est pas véritablement haineux et/ou violent, comme dans le cas d’une ré-appropriation d’un tel contenu à des fin militantes.
Un risque de censure est donc à craindre.
Une « expertise humaine » : une garantie au droit à la liberté d’expression ?
L’expertise humaine a vocation à agir en amont de la technologie mise en place pour détecter les contenus « préjudiciables ». Les modèles d’apprentissage servant de base à la technologie sont constitués grâce à une « expertise d’actualité, linguistique et culturelle » alors numérisée. Selon Kinzen, le rôle rétroactif des experts contribue à améliorer la précision du mécanisme.
Kinzen promeut une équipe « d’experts » qui, selon la start-up, sont des auteurs publiés, journalistes primés ayant « fait leurs preuves en matière d’excellence dans l’enquête sur la désinformation ». Quel crédit peut-on leur accorder ?
- Sur l’appréciation des contenus haineux et/ou violents
D’un point de vue sémantique, la notion de « haine » pose problème puisqu’elle repose sur les valeurs de chacun, de sorte qu’elle peut être appréciée différemment d’une personne à l’autre. Son appréciation dépend également largement du contexte.
- Sur la désinformation
Le fact checking consiste à vérifier l’exactitude des faits présentés par les personnalités publiques. En l’occurrence, il s’agit de s’assurer de la véracité des propos tenus au sein des podcasts qui vont relater des faits d’actualité et qui vont suivre une certaine ligne éditoriale.
Si des informations purement factuelles peuvent facilement être vérifiables, d’autres informations relèvent davantage de l’interprétation, d’une opinion qui a abouti au terme d’un débat public « argumenté et contradictoire ». L’opération de fact checking devient alors délicate puisque soumise à une certaine subjectivité.
En outre, le fact checking suppose parfois de recouper l’information en faisant intervenir des spécialistes, professionnels ou chercheurs dans un domaine particulier. Or l’équipe d’experts promue par Kinzen semble essentiellement constituée de journalistes. Est-il alors possible de prétendre à un niveau de garantie suffisant ?
Spotify, en rachetant Kinzen, a voulu proposer une solution d’envergure face à la masse de contenus proposés susceptibles de « nuire ». Néanmoins, le risque de censure peut être légitimement redouté. Kinzen met l’accent sur une technologie qui a vocation à devenir de plus en plus précise grâce au rôle des experts. Si l’objectif est louable et en bonne voie, revendiquer une amélioration continuelle du mécanisme de détection des contenus « nuisibles » revient à avouer à ce stade un mécanisme qui n’est pas encore au point et qui peut alors être menaçant à l’égard de la liberté d’expression.
*******
Sources
- Directive 2000/31/CE « e-commerce », 8 juin 2000
- Art. 10, Conv. EDH
- BADOUARD R., « La régulation des contenus sur Internet à l’heure des “fake news” et des discours de haine », Communications, 2020/1 (n° 106), pp. 161-173
- CHAZAL J.-P., « Fact-checking : une police de la pensée ? », Recueil Dalloz, 2022 (n°02), p. 65
- CHAGNEAU V., « Fact-checking : une guerre par l’information qui ne dit pas son nom ? », Revue internationale d’intelligence économique, 2021/1 (Vol. 13), pp. 143-153
- « Le Digital Services Act (DSA) définitivement adopté par le Parlement européen », Légipresse, 2022 (n°405), p. 396
- Kinzen, [En ligne], www.kinzen.com
- « Tout savoir sur Kinzen, la start-up rachetée Spotify pour modérer ses contenus audio », La Dépêche, Publié le 7 octobre 2022, [En ligne], www.ladepeche.fr