par Pauline PIETRI, étudiante du Master 2 Droit des communications électroniques
Même si l’application de messagerie Telegram ne peut être qualifiée de très grande plateforme, des obligations de modérations doivent être respectées surtout en ce qui concerne la lutte contre les contenus illégaux et la sécurité des utilisateurs en ligne.
L’application « Telegram » est un service de messagerie instantanée créée en 2013 par deux frères russes. L’un deux, Pavel Durov, présente son application Telegram comme une messagerie hautement sécurisée, permettant donc une indépendance numérique.
Telegram a donc souhaité se démarquer des autres messageries comme celles de META Platforms en utilisant un chiffrement de bout-en-bout pour sécuriser les messages, permettant seulement à l’expéditeur et au destinataire d’avoir accès aux contenus.
Le 28 août 2024, la procureure de la République du tribunal judiciaire de Paris a mis en examen le créateur de Telegram pour toute une série d’infractions plus que préjudiciables, telle que la complicité de crimes organisés, le trafic de stupéfiants, mais aussi pour « refus de communiquer, sur demande des autorités habilitées, les informations ou documents nécessaires pour la réalisation et l’exploitation des interceptions autorisées par la loi ». Le dirigeant pourrait donc être tenu responsable des contenus illicites sur sa plateforme puisque selon l’article 323-3-2 du code pénal, le simple fait de fournir sciemment les éléments d’une diffusion anonymisée de contenus illicites, sans suffisamment les modérer, constitue déjà un délit.
Surtout que conformément au DSA les plateformes ont des obligations renforcées de transparence quant aux mesures de modération.
La qualification de « très grande plateforme » pour l’application Telegram ?
L’interrogation sur la qualification de l’application Telegram est centrale puisqu’en fonction de sa nature, celle-ci sera contrainte à des obligations concernant les contenus en ligne. Se pose donc la question de savoir si l’application se rapproche des géants comme Instagram, WhatsApp, X, TikTok…
C’est l’article 33 du DSA qui énonce les critères de qualification des « très grandes plateformes » en ligne : l’application devrait avoir un nombre mensuel moyen de destinataires actifs sur leur service, supérieur ou égal à 45 millions.
Bien que Telegram n’ai jamais déclaré le nombre exact d’utilisateurs, elle est soupçonnée de le sous-estimer…Justement pour éviter d’être tenue à des obligations spécifiques pour assurer une sécurité en ligne auxquelles sont soumises les TGP.
En se tenant en dessous du seuil dicté par l’article 33 du DSA, la plateforme n’aurait pas d’obligations renforcées notamment en matière de modération. Mais une enquête a révélé qu’en réalité il y aurait plus de 900 millions d’utilisateurs dans le monde et donc sûrement plus de 45 millions d’utilisateurs au sein de l’UE selon la Commission européenne[1].
Toutefois, même sans cette qualification, et seulement en tant que plateforme, Telegram doit fournir des informations aux autorités judiciaires en cas de contenus illégaux.
QUID de l’obligation de modération des contenus
« Les gens apprécient l’indépendance, le respect de la vie privée et la liberté que leur offre la plateforme par rapport aux applications concurrentes » a déclaré Pavel Durov en 2024. La difficulté c’est qu’avec des groupes privés allant jusqu’à 200 000 personnes (environ 1000 maximum pour WhatsApp), une zone de non-droit se dessine très vite…
Heureusement, la législation française refuse une forme d’impunité en ligne sous couvert de la liberté d’expression et milite en faveur de la modération des contenus. Un rôle actif doit être présumé et d’ailleurs les plateformes doivent agir promptement pour retirer ou rendre inaccessible un contenu illicite dès qu’elles en ont connaissance, bien qu’elles ne soient pas soumises à une obligation générale de surveillance des contenus en ligne, selon l’article 6 de loi du 21 juin 2004 pour la confiance dans l’économie numérique.
La Cour de justice de l’Union européenne ne cesse de rappeler les obligations des plateformes en ligne en matière de modération, comme elle l’avait fait notamment pour Facebook dans un arrêt rendu le 4 juin 2019 où celle-ci a jugé que les plateformes peuvent être tenues de supprimer des contenus identiques ou équivalents à ceux jugés illicites, même si ces contenus sont publiés par d’autres utilisateurs[2].
En somme les plateformes sont donc tenues de rendre des comptes à la Commission européenne qui assure un pouvoir de régulation, le but étant de renforcer la transparence, en impliquant d’autres acteurs comme des modérateurs humains ou des signaleurs de confiance.
Sans grande surprise, à la suite de son interpellation, Pavel Durov a commencé à répondre aux questions de l’Office national anti-fraude, puis l’entreprise aux Émirats Arabes Unis a aussi répondu à plusieurs demandes d’informations formulées par l’Office des mineurs dans le cadre d’enquêtes sur des faits de pédocriminalité[3].
[1] Article Presse-Citron Tech
[2] CJUE, C18/18, Eva Glawischnig-Piesczek contre Facebook Ireland Limited, 3 octobre 2019
[3] Article Le Monde