La publication du rapport de transparence prévue par le DSA : L’inefficacité de X exposée au grand jour

par Matteo ANTONI, étudiant du Master 2 Droit des médias électroniques

Le réseau social détenu par Elon Musk a publié le 5 novembre son premier rapport de transparence sur le contrôle des contenus sur la période du 28 août au 20 octobre 2023. 

Avec la publication de son premier rapport de transparence, X (ex-Twitter) a exposé au grand jour la faible taille de ses équipes de modération.

Ce rapport de transparence est exigé par l’article 15 de la nouvelle réglementation de l’UE, le Digital Services Act (DSA), qui est entré en vigueur, en France, le 25 août 2023.

Ce règlement européen, qui vient remplacer la directive du 8 juin 2000 dite e-commerce, va permettre au législateur européen d’accroître la protection des internautes afin de  préserver l’intégrité des rapports sociaux dans le monde virtuel, de créer « un cadre de gouvernance moderne et à l’épreuve du temps, protégeant efficacement les droits et les intérêts légitimes de toutes les parties concernées, et surtout des citoyens de l’Union » . 

L’alerte lancée lors de l’affaire des « Facebook Files », concernant la politique de sous-modération de ce réseau social, a révélé que les opérateurs en ligne peuvent aisément apparaître comme juges et parties à un conflit entre droits et intérêts contradictoires notamment entre liberté d’expression et droit à la vie privée.

Le DSA va ainsi obliger les grandes plateformes en ligne tels que X, Meta mais également TikTok et Google, à mettre en œuvre des moyens suffisants afin de retirer tout contenu illicite et de détailler la façon dont elles modèrent les contenus. Pour autant, l’article 8 dispose que « les fournisseurs de services intermédiaires ne sont soumis à aucune obligation générale de surveiller les informations qu’ils transmettent ou stockent ou de rechercher activement des faits ou des circonstances révélant des activités illégales » préservant ainsi une certaine forme de neutralité.

La « modération de contenus en ligne » étant définie dans le DSA comme l’ensemble des activités, automatisées ou non, qui sont « entreprises par des fournisseurs de services intermédiaires » et « destinées, en particulier, à détecter et à identifier les contenus illicites ou les informations incompatibles avec leurs conditions générales, fournis par les destinataires du service, et à lutter contre ces contenus ou ces informations ».

Que montre ce rapport de transparence ?

Concernant le rapport de transparence, sur les 27 membres de l’UE, les signalements de contenus, suppressions et suspensions pour propos violents et haineux au sein de X sont les plus nombreux en France, loin devant l’Allemagne et l’Espagne.

Toujours selon ce même rapport publié par X, on relève le nombre restreint des modérateurs, qui ne comprennent que 52 francophones. Avec 2.294 modérateurs, l’anglais est la langue la plus surveillée, très loin devant son dauphin, l’allemand et ses 82 modérateurs. De même, il n’y a que 12 modérateurs en langue arabe et 2 en hébreu, ce qui fait état d’un manque flagrant de modération au regard du contexte actuel dans le cadre du conflit israélo-palestinien. 

La volonté du réseau social de fournir le nombre total de modérateurs dans le monde et non uniquement les modérateurs réservés à l’Europe prouve une nouvelle fois que le réseau social se trouve en sous effectif de modérateurs. Comme on le sait, c’est là la conséquence de la prise de pouvoir d’Elon Musk, qui a procédé à un licenciement massif (50% des effectifs) en novembre 2022.

Les risques d’un tel manque de modération peuvent avoir de graves conséquences en ce qu’il peut favoriser les attaques, le harcèlement et les insultes en ligne, créant un environnement toxique et nuisible pour les utilisateurs. Les contenus incitant à la haine, les menaces et discours violents, la violation de la vie privée, les contenus inappropriés liés à la nudité ou la violence sont autant d’exemples d’abus de la liberté d’expression qui risquent de ne plus être modérés efficacement. Le contexte géopolitique actuel n’est de plus guère propice à des débats apaisés ; on pense notamment aux conflits ukrainien et israélo-palestinien, sujets régulièrement émaillés de toutes sortes de manipulations et de fausses informations.

Les conséquences se font ressentir notamment au regard des chiffres présentés dans le rapport. Ainsi, la surveillance des contenus sur le réseau en France menée par X sur la période du 28 août 2023 au 20 octobre 2023 a entraîné 16 288 suppressions de messages contre 7 160 en Allemagne et 7 743 en Espagne, qui est pourtant le pays le plus actif sur le réseau en termes d’utilisateurs. La France est donc le pays avec la plus forte publication de propos violents et illicites.

Les chiffres bruts présentés montrent également l’inefficacité de la modération de X face aux autres entreprises. En effet, le réseau social ne supprime que 28 500 publications sur deux mois, contrairement à TikTok qui en efface quatre millions en un mois, ou encore Facebook et Instagram, qui en retirent respectivement 46 et 76 millions en six mois. Toujours selon le rapport de transparence, la modération du contenu est invalidée environ 20 % du temps suite au retrait de publication après la plainte de l’utilisateur mécontent.

Quant à l’implication des États, les chiffres montrent une faible demande de ces derniers en termes de suppression du contenu en ligne (en application de l’article 9 du DSA). Cependant, les demandes d’information à la plateforme visant à établir l’identité des auteurs, sur la base de l’article 10 du DSA, sont plus fréquentes (787 demandes d’information pour 1 seule demande de retrait sur la période du 28 août au 20 octobre). Ces demandes d’information peuvent prendre jusqu’à 194 heures (soit plus de 8 jours) en fonction des demandes, démontrant encore une fois l’inefficacité du réseaux social à modérer efficacement le contenu publié en ligne.

X a été pointé du doigt par la Commission européenne pour son manque de modération,. La Commission avait annoncé le 12 octobre l’ouverture d’une enquête sur le respect du DSA par le réseau social, notamment au regard de ses politiques et des mesures prises concernant les notifications de contenus illicites, le traitement des réclamations, l’évaluation des risques et les mesures visant à atténuer les risques recensés.

En cas de non-respect du DSA, des astreintes et des sanctions pourront être prononcées. Pour les très grandes plateformes et les très grands moteurs de recherche, la Commission pourra infliger des amendes pouvant aller jusqu’à 6 % de leur chiffre d’affaires mondial au regard de l’article 52 du DSA.

La prochaine étape prévue par le DSA en son article 37 est l’obligation d’« audit indépendant » de la part d’une organisation spécialisée, qui aura accès non seulement aux données de l’opérateur, mais aussi à ses locaux. L’opérateur sera également tenu, en vertu de la même disposition, de répondre loyalement aux questions de l’auditeur externe qui produira par la suite un rapport. L’opérateur numérique qui ne se conformerait pas aux éventuelles recommandations qu’il contient sera tenu d’en motiver spécialement les raisons, afin d’éviter de s’exposer à d’autres sanctions de la part de la Commission.

Sources:

DSA: https://eur-lex.europa.eu/legal-content/FR/TXT/? uri=uriserv:OJ.L_.2022.277.01.0001.01.FRA&toc=OJ:L:2022:277:TOC

https://www.vie-publique.fr/eclairage/285115-dsa-le-reglement-sur-les-services- numeriques-ou-digital-services-act

https://transparency.twitter.com/dsa-transparency-report.html#/ RTD Eur. / Edouard Dubout — RTD eur. 2023. 7 — 24 avril 2023

Facebook Files: https://www.francetvinfo.fr/internet/reseaux-sociaux/facebook/facebook- files-ce-qu-il-faut-retenir-des-revelations-accablantes-de-la-lanceuse-d-alerte-frances- haugen_4796783.html