Depuis plusieurs années, de nombreuses streameuses sont victimes de harcèlement pouvant impliquer des propos misogynes ou sexistes. Ce sont ces évènements, en partie, qui ont insufflé l’initiative de Place de la paix, officiellement lancée le 20 décembre 2022. Si, sur Twitch, une modération reposant sur la communauté de chaque streamer est déjà mise en place, l’initiative lancée par Billy (@RebeuDeter) vise à mettre en commun les listes des personnes signalées afin de généraliser la décision prise à l’ensemble des chaînes Twitch qui ont rejoint le réseau de Place de la paix.
Les personnes ayant tenu des propos misogynes, sexistes ou racistes dans le tchat d’une chaîne ne seront pas seulement évincées sur cette dernière, mais sur l’ensemble des chaînes ayant adhéré à ce système de partage.
Le but est de créer un espace au sein duquel les échanges restent bienveillants à plus grande échelle qu’à celle d’une seule chaîne. Dans une optique moins individualiste et plus pratique, il est question, d’une part, de mutualiser les propos haineux récurrents afin de faciliter l’exercice de la modération et d’autre part, de dissuader les personnes de tenir de tels propos.
Comment le dispositif mis en place fonctionne-t-il ?
Place de la paix, c’est un bot qui agit « à la façon d’une tourelle de surveillance » sur le tchat des streamers.
Premièrement, il s’agira pour un modérateur de repérer les personnes tenant des propos sexistes, misogynes ou encore racistes. Le modérateur pourra mentionner ces personnes en écrivant : @PDP_Bot @pseudoàsurveiller dans le tchat du streamer concerné.
Ensuite, la capacité des personnes visées à envoyer des messages sera suspendue pendant 24h sur l’ensemble des chaînes ayant rejoint le réseau. Durant ce délai, une autre équipe de modération sera alors en charge de lever la suspension ou bien de la valider définitivement.
Cependant, comment empêcher les personnes bannies de récidiver par la création d’un nouveau compte sur Twitch ? Il existe un mécanisme permettant de prévenir ce cas de figure : les personnes bannies doivent renseigner un nouveau numéro de téléphone valide. Les possibilités de créer un nouveau compte et donc de contourner la décision devraient donc à terme s’amenuiser.
Un dispositif qui s’inscrit dans une logique de lutte contre les contenus haineux…
Si les autres plateformes à succès s’appuient sur une modération qui émane directement de leur politique, Twitch laisse l’opportunité à ses utilisateurs de développer leurs propres modes de modération. On peut saluer un nouveau mode de modération qui repose sur la bienveillance de la communauté et sur une volonté collective d’harmoniser les échanges sur la plateforme.
Seuls les propos sexistes, misogynes ou racistes sont concernés par cette initiative. Cette délimitation permet dans une certaine mesure d’éviter les écarts et d’avoir une idée précise de ce contre quoi les modérateurs doivent lutter. Les discours dits « de haine » peuvent paraître au contraire trop larges ou trop flous.
…dont l’efficacité reste encore à prouver.
L’enjeu est désormais plus grand puisqu’au lieu de bannir définitivement une personne sur une chaîne, elle sera bannie sur celle de tous les adhérents. Dans la mesure où la décision est généralisée, il est bon de veiller à ce qu’elle soit prise de manière objective et de la manière la plus judicieuse possible.
L’intervention d’une autre équipe de modération a posteriori permet notamment d’avoir un point de vue différent de celui du modérateur du tchat dans lequel le message a été signalé. Les modérateurs ont une relation de confiance avec les streamers, ce qui peut biaiser l’appréciation du message. L’intervention d’une autre équipe de modérateurs permet de pallier cette subjectivité et d’apporter un autre point de vue.
En revanche, le message est-il fourni avec son contexte ou est-il isolé ? L’absence de contexte va compliquer la tâche et la décision de bannir définitivement la personne concernée pourrait paraître arbitraire dans les cas où le contexte du message pourrait l’innocenter. Par ailleurs, comme c’est souvent le cas lorsque la modération est humaine, des erreurs de jugement peuvent être à craindre et un tel dispositif ne préserve pas d’un certain nombre d’abus.
La modération communautaire, une alternative plus fiable et plus efficace à la modération conduite par la politique de la plateforme ?
Il a été montré que la source de modération peut avoir des conséquences importantes sur la façon dont les utilisateurs perçoivent les plateformes, décident de devenir membres et de participer à une communauté en ligne. Twitch n’est pas la seule qui s’appuie sur sa propre communauté d’utilisateurs pour effectuer une majeure partie de la modération. On compte également parmi elles Wikipedia et Reddit par exemple. Il a été constaté que cette modération communautaire conduit à une dynamique différente par rapport au cas où la modération est conduite par la politique de l’entreprise.
Par ailleurs, solliciter les utilisateurs à signaler les contenus qu’ils considèrent inappropriés permet de répartir le travail de modération et au site de se décharger de sa responsabilité, et donc de la faire peser sur les épaules de ses utilisateurs.
En l’occurrence, la mise en place d’une telle initiative montre que le « laissez-faire » de Twitch pousse les utilisateurs à innover et à trouver des solutions communes et partagées à grande échelle. On assiste à une forme d’autorégulation qui permet à la communauté de développer une forme de modération qui repose sur une confiance verticale (du fait de la confiance mutuelle qui existe entre la communauté, les streamers et les modérateurs), à défaut de mettre en place une modération issue de la politique de la plateforme qui fonctionnerait selon un algorithme peu abouti et qui serait donc moins fiable.