Par Arun Chandra, Vice-Président Scaled Operations

Chaque jour, plus d’un milliard de personnes en moyenne utilisent Facebook. Elles publient des contenus dans des dizaines de langues : mises à jour de leur statut, photos, vidéos, diffusions de vidéos en direct… Protéger nos utilisateurs est une priorité. C’est pourquoi nous avons instauré un ensemble de règles, les Standards de la Communauté, qui définissent clairement ce qui est autorisé sur notre plateforme, et ce qui ne l’est pas. Ces Standards incluent des règles strictes contre par exemple les discours haineux, l’intimidation et le harcèlement en ligne, ou le partage de contenus contenant de la nudité. Notre équipe chargée des politiques de contenus développe ces règles en s’appuyant sur son expertise dans les domaines allant de la lutte contre le terrorisme à la protection de l’enfant. Ces règles sont établies en étroite collaboration avec des experts externes, notamment des juristes, des organisations non gouvernementales et des universitaires.

Seul un très faible pourcentage des contenus publiés sur Facebook contreviennent à nos règles. Cependant, nous disposons d’une équipe de plus de 30 000 personnes dans le monde entier chargées de l’application de ces règles dans de telles situations. Cela inclut notamment nos équipes Produits qui développent les outils et les technologies d’apprentissage automatique (machine learning) qui nous aident à supprimer rapidement les contenus problématiques, dans certains cas avant même qu’ils ne soient vus. Cela inclut également une équipe de modérateurs de contenus qui vient compléter ces technologies qui ne peuvent à elles seules relever ces défis. Certaines décisions que nous devons prendre sur ce que nous retirons et ce que nous maintenons sont en effet très complexes et nuancées. Certains propos, par exemple, peuvent être utilisés pour s’en prendre à d’autres utilisateurs, alors qu’ils peuvent également être prononcés pour plaisanter, pour mettre en lumière le sectarisme auquel un utilisateur peut être confronté, ou pour citer des éléments issus de la culture populaire. C’est pourquoi nous nous appuyons également sur cet autre moyen essentiel pour l’application de ces règles.

Par le passé, pour des raisons de sécurité, nous n’avons pas partagé beaucoup d’informations à propos des modérateurs de contenus. Comme la terrible fusillade au siège de Youtube l’a montré l’an dernier, ces derniers peuvent être exposés à des dangers réels. Cela nous oblige à la prudence quant à la diffusion de détails sur leur localisation géographique et leur identité.

Nous avons pu observer que cela a suscité beaucoup de confusion, notamment concernant la manière dont les modérateurs sont rémunérés et la façon notre entreprise prend soin de ceux qui sont en charge de cette mission importante. Ainsi, pour dissiper les zones d’ombres autour de ces métiers – notamment le processus de modération, la formation des modérateurs et l’application cohérente des Standards – nous avons commencé à partager plus d’informations à ce sujet

Qui sont les modérateurs

La taille des équipes en charge de la sécurité et de la protection des utilisateurs chez Facebook a plus que triplé au cours des dernières années, pour atteindre aujourd’hui plus de 30 000 personnes. Cela inclut environ 15 000 modérateurs de contenus. Nos partenaires, comme Accenture, Genpact, CCC et Majorel, sont sélectionnés selon un processus rigoureux. Ils disposent d’une solide réputation et d’une expérience internationale significative sur ce type de mission. Cela nous a permis d’accroître rapidement le nombre de personnes en charge de la modération des contenus et de renforcer notre expertise linguistique. Grâce à cela, Facebook est en mesure de supprimer rapidement et de façon précise les contenus problématiques publiés à travers le monde.

Ces équipes de modérateurs sont implantées sur plus d’une vingtaine de sites dans le monde, notamment en Allemagne, en Irlande, en Lettonie, aux Philippines, en Espagne ou aux Etats-Unis, nous permettant ainsi de traiter les signalements rapidement. Les modérateurs viennent d’horizons différents et reflètent la diversité de notre communauté, notamment en apportant des expériences professionnelles très variées.

L’expertise linguistique est clé et nous permet de modérer les contenus à chaque heure de la journée. Par exemple, si quelqu’un signale un message en tagalog au milieu de la nuit aux Philippines, il y aura toujours un modérateur maîtrisant cette langue, situé sur place ou sur un autre fuseau horaire, et à qui ce contenu pourra être adressé pour un examen rapide. Mais il existe également de nombreux signalements qui ne nécessitent aucune compétence linguistique, notamment ceux en matière de nudité. Ces derniers sont adressés à des modérateurs dans le monde indépendamment des langues qu’ils maîtrisent. Et dans l’hypothèse où serait signalé un contenu dans une langue pour laquelle nos partenaires ne disposent pas de ressources 24 heures sur 24, nous travaillons avec nos experts locaux pour nous aider à le comprendre.

En plus de la maîtrise linguistique, nous recherchons également des personnes connaissant et comprenant les cultures locales. Par exemple, nous voulons recruter des personnes parlant l’espagnol originaires du Mexique – et non d’Espagne – pour revoir les contenus publiés au Mexique en comprenant le sens spécifique d’un mot ou le contexte politique dans lequel ils s’inscrivent.

Ce travail n’est pas fait pour tout le monde. Pour leur permettre de mener à bien leur mission, il est important que les personnes recrutées soient capables d’en relever les défis.

Des semaines de formation

Pour remplir leur mission – et se sentir bien en le faisant – les modérateurs ont besoin d’une formation adéquate. Cela implique de s’assurer qu’ils disposent d’une bonne compréhension de nos politiques en la matière, de leur justification et de la façon de bien les appliquer. Les formations à destination de tous les modérateurs, incluant les salariés de Facebook et ceux des entreprises partenaires, sont basées sur :

  • Une formation préalable, permettant de mieux appréhender le contenu de cette mission. Chaque modérateur apprend ainsi comment accéder aux ressources relatives à la résilience et au bien-être. Ils sont également informés de la possibilité de contacter un psychologue s’ils ressentent le besoin d’un soutien complémentaire.
  • Un apprentissage pratique, comprenant un minimum de 80 heures passées aux côtés d’un instructeur, suivi d’une mise en situation sur une réplique du système utilisé, afin de permettre aux modérateurs de s’exercer dans un environnement « réel ». Suite à cet apprentissage, les modérateurs se voient expliquer  les domaines où ils ont appliqué les politiques de façon cohérente et exacte, et ceux pour lesquels ils nécessitent plus de formation.
  • Un encadrement continu : une fois embauchés, l’ensemble des modérateurs bénéficient de façon régulière de séances d’encadrement, de remise à niveau et de mises à jour concernant les politiques de contenus.

Le processus de modération

N’importe quel utilisateur a la possibilité de signaler un contenu qui, selon lui, violerait les Standards de la Communauté. Une fois le contenu signalé, celui-ci est automatiquement adressé à une équipe de modérateurs, en fonction de la langue ou du type de violation dont il s’agit. Si nécessaire, ce contenu pourra être remonté à des experts du sujet des équipes Operations ou Policy.

Chaque modérateur se voit assigné une liste de contenus signalés à examiner. Parfois, cela signifie regarder le contenu lui-même pour déterminer s’il doit être autorisé – par exemple pour les images contenant de la nudité. Mais d’autres fois, le contexte est un élément clé de la décision et ainsi, d’autres informations, comme les commentaires postés sur le contenu en question, sont également fournis aux modérateurs. Le contexte aide les modérateurs à appliquer nos Standards et à décider si un contenu doit être supprimé ou maintenu.

Nous souhaitons que les opinions et biais personnels n’influent pas la décision – et ainsi, théoriquement, deux personnes examinant les mêmes contenus devraient prendre systématiquement les mêmes décisions. Bien sûr, les décisions peuvent varier si les politiques ne sont pas suffisamment prescriptives. C’est pourquoi nous nous efforçons toujours de clarifier et d’améliorer nos politiques. Nous vérifions chaque semaine un échantillon de décisions prises par les modérateurs afin d’identifier les cas où une mauvaise décision a été prise. Nos auditeurs font eux-mêmes l’objet d’évaluations régulières. En parallèle, nous disposons de  responsables au sein de chaque centre de modération qui peuvent transmettre des conseils aux modérateurs. Enfin, sont organisées chaque semaine des discussions avec des experts en matière de politiques de contenus pour répondre à toutes les questions que les modérateurs peuvent se poser.

Une idée reçue à propos des modérateurs de contenus voudrait qu’ils soient soumis à des quotas et contraints de prendre des décisions hâtives. Soyons clairs : les modérateurs ne sont pas tenus de revoir un nombre donné de contenus. En effet, certains types de contenus sont simple à revoir et peuvent être examinés en quelques secondes, alors qu’a contrario, des cas comme par exemple les usurpations d’identité peuvent prendre beaucoup plus de temps à confirmer. Nous fournissons des indications sur le temps que nous estimons nécessaire à l’examen de différents types de contenus. L’objectif est de nous assurer que nous disposons des effectifs nécessaires pour accomplir cette tâche. Afin de garantir que les signalement sont traités rapidement pour notre Communauté tout en tenant compte du bien-être des modérateurs, nous abordons la question de la performance en examinant plusieurs facteurs. Cela inclut le bien-être, la pertinence et l’efficacité. Le bien-être des modérateurs est une priorité absolue pour nous. La pertinence de leurs décisions est importante pour garantir que nous prenons les bonnes décisions pour la Communauté. Et l’efficacité est importante pour s’assurer que nous servons la très grande communauté Facebook dans les meilleurs délais.

Prendre soin des modérateurs

Nous savons que ce métier n’est pas toujours facile et que ces équipes sont parfois exposées à des contenus difficiles ou troublants. Nous prenons très au sérieux la question du soutien que reçoivent les personnes qui exercent ce métier.

Chez Facebook, nous disposons d’une équipe Global Resiliency qui comprend des psychologues cliniciens au sein des trois régions dans lesquelles nous opérons. Ils sont chargés de concevoir, de mettre en place et d’évaluer les programmes en matière de résilience destinés à tous ceux qui travaillent sur des contenus perturbants.

Tous les modérateurs – qu’ils soient salariés de Facebook ou employés de nos partenaires – ont accès à des ressources en matière de santé mentale, incluant des professionnels formés disponibles sur place, pour des consultations individuelles et collectives. Par ailleurs, l’ensemble des modérateurs bénéficient de prestations de soin complètes.

Nous prêtons également attention à l’environnement dans lequel les modérateurs de contenus pour Facebook travaillent. Il est faux de dire qu’ils exercent leur mission dans des sous-sols sombres, éclairés uniquement par les écrans de leurs ordinateurs. Les centres de modération ressemblent aux autres bureaux de Facebook. Ces équipes travaillant sur des sujets très sérieux, leur environnement de travail et le soutien dont ils bénéficient est important, et cela inclut des espaces dédiés à la résilience ou des espaces de détente.

Une attention portée continuellement au bien-être

Nous avons beaucoup travaillé dans ce domaine et recherchons continuellement de nouvelles pistes d’amélioration. Nos efforts sont totalement focalisés sur le bien-être et l’expérience des employés de nos partenaires. Nous conduisons plusieurs initiatives destinées à continuer à renforcer le soutien qu’ils reçoivent :

  • Nous travaillons avec nos partenaires pour offrir une formation continue en matière de bien-être et de résilience. Il est important de garantir que les membres de ces  équipes de modérateurs disposent des compétences et des ressources nécessaires pour prendre soin d’eux-mêmes et des autres.
  • Nous ajoutons des paramètres permettant aux modérateurs de personnaliser la façon dont ils visualisent certains contenus. Par exemple, ils peuvent désormais choisir de flouter par défaut temporairement certaines images avant des les examiner. Nous avons procédé à ces changements après avoir recueilli des retours d’expérience de nos  modérateurs souhaitant disposer de davantage de contrôle quant à la façon dont ils sont exposés à ces contenus.
  • Nous nous assurons que chaque partenaire propose dans les centres de modération des consultations durant toutes les heures de travail.
  • Nous lançons une enquête sur la résilience dans tous les centres à travers le monde afin de mieux comprendre les besoins des modérateurs. Nous réaliserons ces enquêtes deux fois par an et utiliserons les résultats pour adapter nos programmes et nos pratiques.
  • En début d’année, nous avons accueilli au siège de Facebook à Menlo Park notre premier sommet annuel avec nos partenaires. Plus de deux cents représentants de nos partenaires à travers le monde ont participé à ce rendez-vous pour discuter de ces évolutions. Nous avons ainsi recueilli d’excellentes observations et nous continuerons à apporter des changements importants à mesure que se poursuivront ces discussions.
  • Nous lançons cette année un programme semestriel d’audit et de conformité pour les équipes de modérateurs. Cela inclut des audits, des visites inopinées sur site et des processus de déclaration pour nos partenaires.

La modération des contenus est un domaine nouveau, particulièrement à une échelle comme celle de Facebook. Nous portons une grande attention à ce métier et à ceux qui l’exercent, et sommes engagés à les soutenir.