L’université américaine de NUY Stern vient de publier un rapport sur la modération des géants des réseaux sociaux. Entre erreurs de modération, conditions de travail déplorables, risques pour la santé mentale, licenciements pour cause de Covid-19 et concurrence avec l’IA, dur, dur d’être un modérateur Facebook.

Imaginez un peu : et si, demain, Facebook arrêtait de modérer sa plateforme ? Et si n’importe qui pouvait publier ce qu’il veut. L’expérience n’a pas été tentée, mais on peut imaginer que le réseau social deviendrait rapidement un environnement toxique, envahi par les spams, les faux comptes, les discours haineux, la propagande terroriste, les contenus violents et explicites… Nul doute que nous serions alors nombreux à abandonner la plateforme, suivis par les annonceurs.  

Au cœur de la modération

La modération est donc un enjeu crucial pour Facebook et pourtant, la majorité des 15 000 personnes qui passent toute la journée devant leur écran à arbitrer ce qui peut et ne peut pas être sur le réseau ne travaillent même pas pour Facebook.

Pour des questions de budget, l’ensemble de la fonction de modération de contenu est en effet confiée à des tiers (dont Cognizant) qui emploient souvent les travailleurs à travers des contrats précaires, dans plus de 20 locations dans le monde, en Inde, en Europe, en Amérique latine.

Facebook Modération Modérateurs

10% d’erreur

Ces modérateurs sont chargés d’examiner plus de 3 millions de publications, images, vidéos signalées par IA ou les utilisateurs.

3 millions…

Cela signifie 200 revues à effectuer par personne, 25 par heure, soit moins de 150 secondes pour décider si un message respecte ou viole les conditions d’utilisation de la plateforme.

OK, mais que se passe-t-il si un modérateur est chargé de vérifier une vidéo de 10 minutes ? Va-t-il bâcler le travail ? On ne réserver ensuite que quelques secondes aux autres publications ?

Bref, la tâche n’est pas simple.

Et, comme vous pouvez vous en douter, la tâche des modérateurs est devenue encore plus difficile avec la pandémie de Covid-19. De nombreux modérateurs ont été renvoyés chez eux, en télétravail, sans la technologie, la connectivité et les exigences de sécurité appropriées pour effectuer leur mission. Ce remaniement a conduit à un véritable block-out ou à une suppression généralisée pendant plusieurs semaines des publications mentionnant le Coronavirus éditées par des sources réputées telles que The Independent, sans parler de millions d’utilisateurs individuels du réseau social. Mark Zuckerberg, dans le livre blanc Who Moderates the Social Media Giants réalisé par NYU Stern Center for Business and Human Rights a lui-même admis que les modérateurs prennent le mauvais arbitrage dans plus d’un cas sur 10 (“moderators make the wrong call in more than one out of every 10 cases”), ce qui signifie 300 000 erreurs par jour.

L’intelligence artificielle se proposait comme une alternative et un facilitateur proactif de la modération. Mais avouons-le, ces systèmes automatisés sont encore sujets à caution, bloquant souvent de manière totalement arbitraire des contenus et des pages pourtant crédibles.

Malgré les scores élevés des robots, les faux positifs sont nombreux, en particulier lorsque des questions de représentation humaine sont mis en balance. Rappelez-vous quand le tableau de Gustave Courbet, L’Origine du Monde, représentant un sexe féminin, avait été blacklisté par la plateforme pour non respect des règles d’utilisation.

Or, la modération est une fonction centrale de l’activité des réseaux sociaux. Paul M.Barrett, directeur adjoint du Stern Center for Business and Human Rights, reconnaît que la modération de rentre tout simplement pas dans l’image que souhaite projeter les grands opérateurs de la Silicon Valley : “Certains types d’activités sont appréciés et glamourisés : l’innovation, le marketing intelligent, l’ingénierie… Le monde de la modération de contenu ne rentre pas dans ce cadre “.

Contenus à problèmes

Les contenus à problèmes auxquels sont le plus fréquemment confrontés les modérateurs de Facebook sont organisés en 9 catégories :

  • faux comptes
  • discours haineux
  • marchandises réglementées (armes à feu, substances illicites)
  • spams, propagande terroriste
  • contenus violents et explicites
  • intimidation et harcèlement
  • nudité et activité sexuelle des adultes
  • nudité et exploitation sexuelle d’enfants

En 2019, Facebook a évalué que, sur une base de 10 000 contenus postés sur la plateforme, 11 à 14 concernaient des contenus allant à l’encontre des règles de protection de la nudité, 25 étaient des contenus d’ordre violent ou explicite et enfin 3 concernaient des contenus d’ordre terroriste ou liés à l’exploitation sexuelle des enfants.

Ne plus minimiser la modération de contenus

Le rapport de NYU Stern conclut sur l’importance de redonner à la modération de contenus une position centrale au cœur des activités de Facebook. Le rapport formule ainsi 8 recommandations à destination de Facebook :

  • Réinternaliser la modération de contenus et augmenter l’importance donnée aux modérateurs sur les lieux de travail
  • Doubler le nombre de modérateurs pour améliorer la qualité des arbitrages
  • Nommer des superviseurs pour réaliser la vérification des faits
  • Accroître la modération dans les pays à risque en Asie et en Afrique pour éviter les problèmes d’expertise linguistique
  • Fournir aux modérateurs un accompagnement de première qualité sur les problématiques de santé et santé mentale
  • Parrainer des recherches sur les risques pour la santé de la modération du contenu, en particulier le syndrome de stress post-traumatique
  • S’aligner sur la réglementation relative au contenu nuisible et mal couvert par Facebook aujourd’hui (problématique de la tolérance à l’égard des commentaires racistes ou misogynes)
  • Développer la vérification des faits pour éliminer les fausses informations.

Nul doute que ces recommandations sont ambitieuses. Voyons ce que le géant des réseaux sociaux en fera…