X

Recherches fréquentes

Modération: les réseaux sociaux peuvent-ils faire beaucoup mieux?

19 novembre 2019

 

C’est l’un des pires cauchemars des géants du web. La modération. Parvenir à effacer des messages, des images, des vidéos et des liens publiés par les utilisateurs, dont le contenu ou le propos est interdit par les standards de la communauté, voire illégal. Depuis des années, la problématique est brûlante et tend même à entrer en surchauffe, alors que le web n’a jamais autant regorgé de contenus pornographiques, ultraviolents, gores, haineux et extrémistes. Submergées de publications, les plateformes doivent réussir l’équivalent de stopper un tsunami permanent. 

Facebook, YouTube et Twitter, notamment, mais aussi TikTok, réputé être un véritable fourre-tout de vidéos glauques, négationnistes ou conspirationnistes, font régulièrement l’objet de virulentes critiques de la part du monde politique, mettant en doute leur capacité, et aussi leur réelle motivation, à juguler ces contenus, alors qu’une proportion significative de ceux-ci a une espérance de vie anormalement longue sur la Toile. Un récent article publié par le site Medium pointe du doigt une solution miracle: imiter les grandes plateformes de porno online comme xHamster, dont la politique de modération spécifique serait idéale. 

Un modèle inattendu

Certaines ne rendent ainsi visibles les posts publiés qu’après leur analyse par les légions de modérateurs à disposition. Un processus inverse à celui que mènent la plupart des réseaux sociaux. Facebook, Instagram ou TikTok, ne font effectivement la chasse aux contenus délicats qu’à partir du moment où ils sont publiés, laissant le risque de voir ces posts faire des dégâts auprès des autres utilisateurs avant qu’ils soient repérés et supprimés. Ce qui peut prendre des heures. Et mêmes des jours. 

Selon l’article de Medium, les grandes plateformes sociales feraient donc bien de s’inspirer de ce modèle vertueux étonnamment venu des sites de X qui, sous la pression d’énormes contraintes légales liées à leur thématique (lutte contre la violence et les sévices sexuels, par exemple), ont dû opter pour une méthode de modération rigoureuse. L’apparente simplicité et l’efficacité de la voie désignée semblent séduisantes de prime abord, mais est-il réaliste de proposer aux grands réseaux sociaux qu’ils appliquent les techniques du porno? 

 

La folie des chiffres

Premier bémol, celui des chiffres, pas vraiment comparables. Chez xHamster, environ 7000 publications sont filtrées quotidiennement. Une marée de contenus, certes, mais bien plus aisée à étudier finement que les 100 millions de photos et vidéos postées chaque jour sur Instagram, les 200 millions d’images et 735 millions de commentaires mis en ligne sur Facebook toutes les 24 heures, ou encore les 500 millions de tweets quotidiens… 

Au regard de ces statistiques, on comprend mieux pourquoi les grands réseaux sociaux ont tant de mal à modérer tout ce qui pose problème, même quand leurs armées de scruteurs attentifs sont secondées d’algorithmes sophistiqués mais imparfaits. D’ailleurs, si ces plateformes devaient passer en revue par des humains tout ce qui est publié sur leurs pages, les posts ne seraient visibles qu’au bout de plusieurs heures, sans doute de jours, ou ne sortiraient même jamais, coincés dans le flux trop important des données. Et c’est un problème. 

Tout de suite ou jamais

Alors que les sites coquins ne sont pas spécialement soumis aux exigences de l’actualité, il en est tout autrement pour les réseaux sociaux. Quel intérêt de voir un tweet, une photo instagram ou un commentaire Facebook évoquant un événement précis paraître une semaine en retard? Le rythme de ces plateformes est intimement organique, et leur empêcher toute immédiateté serait aller à l’encontre de ce qui les rend si intéressants: permettre d’aligner tout un groupe sur le même instant T. 

On soulignera en outre le fait que le travail de modération à effectuer entre plateformes porno et réseaux sociaux est non seulement quantitativement, mais aussi qualitativement différent. Pour xHamster et consorts, les cibles sont claires et quasi immuables, il s’agira d’identifier la violence, la pédopornographie, la zoophilie et autres thématiques considérées comme illicites de façon permanente. En revanche, du côté des réseaux sociaux, la définition de la publication à modérer est plastique car elle évolue avec le temps. 

De la volonté et surtout de l'argent

Si le corpus de base est le même que celui pourchassé par xHamster, s’ajoutent néanmoins ici des types de contenus qui deviennent soudain inappropriés alors qu’ils étaient tolérés auparavant, ceci au fil des nouvelles sensibilités morales et des débats éthiques surgissant dans la société. Instagram par exemple, on l’évoquait il y a quelques jours, censure désormais dans un souci de prévention la plupart des contenus en rapport avec l’idée du suicide. Et le réseau social de Mark Zuckerberg traque dorénavant les émojis un peu trop évocateurs lorsqu’ils apparaissent dans des contextes lascifs. 

Des évolutions générant forcément des adaptations au niveau de la formation des modérateurs et des reprogrammations d’algorithmes. Cela exige du temps et des budgets. Evidemment, lorsqu’il s’agit d’une société multimilliardaire comme Facebook, capable de lever des fonds monumentaux lorsqu’elle en a soudainement l’envie (comme pour l’achat d’Instagram ou WhatsApp), avouons qu’on est en droit d’attendre un minimum de réactivité plutôt que les «y faut qu’on…» traditionnellement promis par les géants d’Internet.

 

Et quelques liens:
 

Xhamster better than Facebook

Facebook's new Content Moderation Tools put posts in context

Les gros problèmes de modération de TikTok

The secret lives of Facebook moderators in America

 

Retour au blog