Dans le cadre d’un partenariat, cet article a également été publié sur le site internet du média Les Surligneurs.
********
Alors que le 5 juillet dernier, le Parlement européen avait définitivement voté le règlement « Digital Services Act » (DSA), son adoption par le Conseil de l’Union Européenne a été faite le 4 octobre 2022.
L’adoption de ce règlement, devant entrer en application en 2024, entraîne des conséquences immédiates et importantes pour les citoyens des États membres de l’Union Européenne.
Ce texte, qui impacte particulièrement les plateformes, vient imager le principe de « ce qui est illégal hors ligne est illégal en ligne », et vise ainsi à lutter contre les dérives de la face sombre d’Internet, en mettant en place, notamment, des nouvelles obligations pour les fournisseurs de services intermédiaires et de partage de contenus en ligne.
La volonté européenne de responsabiliser certains acteurs du numérique
L’adoption de ce texte visant à définir les règles des responsabilités des fournisseurs de services et de partage en ligne fait suite à l’adoption le 14 septembre 2022 d’un autre texte : le « règlement sur les marchés numériques »(DMA). Ce dernier qui devrait être applicable au 2 mai 2023, vise à lutter contre les pratiques anticoncurrentielles des géants d’Internet, dans l’objectif d’étouffer leur position quasi-monopolistique sur le marché européen.
En adoptant le Digital Services Act, l’Union Européenne affirme sa volonté de réguler le monde numérique. Ce règlement vient donc « mettre à jour » la directive sur le commerce électronique adoptée en 2000 visant à apporter un cadre légal au marché européen des services en lignes.
Une responsabilité proportionnée en fonction de l’acteur concerné
Le Digital Services Act a pour objectif principal de responsabiliser les acteurs d’internet, et plus précisément les plateformes utilisées par plus de quarante-cinq millions d’utilisateurs européens par mois, (cela laisse sous-entendre les GAFAM), mais aussi les fournisseurs d’accès à Internet (FAI), les fournisseurs de services informatique à la demande (cloud computing), ou encore les fournisseurs de services intermédiaires (réseaux sociaux, les market places, les plateformes de partage de contenus ou de voyage et d’hébergement…).
Il ressort du règlement que chaque acteur visé se voit appliquer un régime de responsabilité aménagé en fonction la nature des services proposés, de sa taille ou encore de son poids sur le marché européen.
Ainsi, il en découle que les plateformes accueillant plus de 45 millions d’utilisateurs par mois seront soumises à des obligations plus lourdes et strictes que les acteurs du numérique visés par d’autres dispositions. Pour rappel, jusqu’à ce jour, la responsabilité de l’hébergeur n’est engagée que si celui-ci, malgré avoir été informé de l’existence d’un contenu illicite, ne procède pas à son retrait dans un délai prompt. Ce principe ne semble pas être remis en cause par ce règlement. De ce fait, il n’est toujours pas imposé aux acteurs répondant de cette qualification de rechercher activement des contenus illicites (selon l’article 8 du règlement – absence d’obligation générale de surveillance ou de recherche active des faits »).
Cependant, deux mesures phares du règlement peuvent être mises en avant :
La lutte contre les contenus illicites – Selon le règlement, un contenu illicite se définit comme étant « toute information qui, en soi ou par rapport à une activité, y compris la vente de produits ou la fourniture de services, n’est pas conforme au droit de l’Union ou au droit d’un État membre qui est conforme au droit de l’Union, quel que soit l’objet précis ou la nature précise de ce droit ».
Ainsi, selon cette définition, l’ensemble des fournisseurs de services intermédiaires sont soumis à des obligations de régulation des contenus illicites sur Internet. Autrement dit, un moyen de modération (notamment un outil permettant de signaler de manière facile et compréhensible les contenus illicites) devra être mis en place.
Concernant les hébergeurs et plateformes en ligne, ces derniers devront mettre en place (selon les dispositions de l’article 6 du règlement susvisé – mécanismes de notification et d’action) un système de notification des contenus effectif, claire et accessible. Ainsi, ce mécanisme permet de laisser peser une présomption de connaissance du contenu illicite sur l’acteur concerné. L’intérêt est donc de forcer ce dernier à agir rapidement face à cette notification.
Plus particulièrement, les plateformes devront coopérer avec des « signaleurs de confiance ». Selon l’interprétation de l’article 22 du règlement – signaleur de confiance, ce statut pourra être attribué à des entités ou à des organisations, dans chaque pays, dès lors que l’entité ou l’organisation dispose des compétences et expertises nécessaires, notamment, pour détecter, identifier, et notifier des contenus illicites de façon indépendante.
Une liste sera alors mise en ligne et mise à jour régulièrement.
Les GAFAM, en plus de cela se voient attribuer un rôle en première ligne dans la lutte contre la diffusion de masse des contenus illicites, notamment en les obligeant à procéder à des analyses de leurs risques d’impact systémique (selon les articles 34 et 35 du règlement). Cette analyse devra alors être suivie d’une obligation d’atténuation des risques sous contrôle de certaines autorités désignées (par exemple, la Commission Européenne).
En écho avec les crises récentes (L’épidémie de Covid-19, ou encore l’agression de la Russie envers l’Ukraine), un mécanisme de réaction aux crises touchant la sécurité ou la santé publique a été envisagée, pouvant imposer à ces plateformes, pendant un temps limité et déterminé, des mesures d’urgences.
Afin d’éviter tout type d’abus cependant, dès lors que des utilisateurs abusent de cette fonction de signalement, et cela sans fondements, ils pourront se voir suspendre leurs accès au signalement, pendant une certaine durée, qualifiée de raisonnable.
En conclusion, l’ensemble des prestataires de services intermédiaires, de partage et les plateformes vont participer avec ce règlement à la lutte contre les contenus illicites, tels que les contenus haineux, ou encore les contenus contrefaisants, tout en limitant leurs risques sociétaux.
L’obligation de transparence en ligne – L’une des mesures phare de ce règlement est la publication de rapports de transparence annuels pour les plateformes concernées. Autrement dit, les plateformes vont devoir rendre plus transparentes leurs décisions en matière de modération des contenus.
Pour cela, plusieurs outils ont été réfléchis. Les plateformes devront tout d’abord mettre en œuvre un « système interne de traitement des réclamations » (Article 20 du règlement – Système interne de traitement des réclamations). Ce procédé aura pour fonction de permettre aux utilisateurs dont leurs comptes ont été suspendus ou bloqués de contester la mesure. Ce système s’ajoute évidemment aux organismes indépendants des pays européens déjà existants, ou encore, dans certains cas les tribunaux nationaux.
À cela, le règlement impose aux plateformes d’expliquer le fonctionnement des algorithmes qu’elles emploient dans le but d’émettre des recommandations publicitaires. Ainsi, l’obligation de transparence est imposée jusqu’au registre des publicités et sur l’activité de profilage des plateformes. Ce registre devra être mis à la disposition du public par les GAFAM.
Finalement, le règlement vise aussi à lutter contre les « dark patterns » ainsi que la publicité pour les mineurs ou celle basée sur les données personnelles à caractère sensible.
La volonté de créer un espace numérique sûr et responsable pour les citoyens européens
Ce plan de régulation vise à lutter contre les dérives du monde numérique. Les propos et comportements illicites sont facilement présents sur Internet. Finalement, l’adoption de ce texte par le Conseil de l’Union Européenne s’inscrit dans la mouvance politique française. Pour rappel, en 2019, le Parlement français avait adopté la taxe sur les services numériques afin de réguler les activités des GAFAM.
Il convient de relever que certaines plateformes ont d’ores et déjà développé des outils de contrôle en vue de l’adoption de ce texte. A titre d’exemple, il est possible de nommer le conseil de surveillance de Facebook, ou encore l’unité spéciale d’Amazon créée en 2020 afin de lutter contre la contrefaçon.
Néanmoins, le mouvement législatif en général visant à réguler les acteurs du numérique ne vient-il pas entraver certains principes tel que la liberté d’expression ? Cette question en suspens fait écho à la volonté de rachat par Elon Musk de Twitter, dans l’objectif d’en faire un lieu où la liberté d’expression serait absolue, laissant déjà entrevoir les abus de certains utilisateurs et la difficulté d’y opposer cette régulation.
SOURCES :
- RÈGLEMENT DU PARLEMENT EUROPÉEN ET DU CONSEIL relatif à un marché intérieur des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) : https://data.consilium.europa.eu/doc/document/PE-30-2022-INIT/fr/pd
- Vie-Publique, Le règlement européen sur les services numériques (DSA) vise une responsabilisation des plateformes, 5 octobre 2022 : https://www.vie-publique.fr/eclairage/285115-dsa-le-reglement-sur-les-services-numeriques-ou-digital-services-act
- Commission Européenne, Législation sur les services numériques: garantir un environnement en ligne sûr et responsable : https://ec.europa.eu/info/strategy/priorities-2019-2024/europe-fit-digital-age/digital-services-act-ensuring-safe-and-accountable-online-environment_f
- Communiqué de presse : Régulation des grands acteurs du numérique, 25 novembre 2021 : https://ue.delegfrance.org/regulation-des-grands-acteurs-du
- RÈGLEMENT (UE) 2022/1925 DU PARLEMENT EUROPÉEN ET DU CONSEIL du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques) : https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:32022R1925&from=FR
- Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur («directive sur le commerce électronique») : https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX%3A32000L0031
- Dalloz, Le Digital Service Act, un cadre européen pour la fourniture de services en ligne, 8 janvier 2021 : https://www.dalloz-actualite.fr/flash/digital-service-act-un-cadre-europeen-pour-fourniture-de-services-en-ligne
- LOI n° 2019-759 du 24 juillet 2019 portant création d’une taxe sur les services numériques et modification de la trajectoire de baisse de l’impôt sur les sociétés : https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000038811588
- Politique d’Amazon en matière de lutte contre les produits contrefaits : https://www.amazon.fr/gp/help/customer/display.html?nodeId=G422VB5VF4ZW7ZSE