Par Monika Bickert, VP Global Product Management

L’une des questions qui nous est le plus souvent posée concerne la manière dont nous décidons du type de contenu autorisé, ou pas, sur Facebook. Ces décisions sont parmi les plus importantes que nous prenons. Elles sont essentielles pour garantir que Facebook soit un endroit sûr et un espace où l’on peut discuter librement de différents points de vue. Depuis des années, nous avons des Standards de la Communauté qui expliquent ce qui est autorisé, ou pas, sur Facebook. Aujourd’hui, nous allons encore plus loin en publiant les directives internes que nos équipes utilisent pour faire respecter ces Standards. Et pour la première fois, nous vous offrons la possibilité de faire appel de nos décisions sur des contenus individuels, afin que vous puissiez demander un deuxième avis lorsque vous pensez que nous avons commis une erreur.

Nous avons décidé de publier ces directives internes pour deux raisons. Premièrement, elles aideront chacun à comprendre où nous plaçons la limite sur les questions complexes ou nuancées. Deuxièmement, en fournissant ces détails, il est plus facile pour tout le monde, y compris les experts dans différents domaines, de nous faire part de leurs observations, afin que nous puissions améliorer ces directives – ainsi que les décisions que nous prenons – au fil du temps.

Processus d’élaboration des politiques sur les contenus

L’équipe en charge des politiques de contenu de Facebook est responsable de l’élaboration de nos Standards de la Communauté. Nous avons des collaborateurs dans 11 bureaux à travers le monde, y compris des experts spécialisés dans des domaines tels que le terrorisme, l’incitation à la haine ou la protection de l’enfance. Nous sommes nombreux à avoir travaillé sur les questions d’expression et de sécurité bien avant notre arrivée chez Facebook. J’ai, pour ma part, travaillé de la sécurité des enfants à la lutte contre le terrorisme lorsque j’étais procureur général. L’équipe comprend par exemple une ancienne conseillère en matière de viol, une universitaire spécialisée dans les organisations haineuses, une avocate des droits de la personne et une enseignante. Chaque semaine, notre équipe sollicite l’avis d’experts et d’organisations extérieures à Facebook afin de mieux comprendre les différents points de vue sur la sécurité et l’expression, ainsi que l’impact de nos politiques sur les différentes communautés dans le monde.

Sur la base de ces observations et des évolutions des normes sociales et des langues, nos Standards évoluent au fil du temps. Ce qui n’a pas changé, et qui ne changera pas, ce sont les principes fondamentaux de sécurité, de participation et d’équité sur lesquels se fondent ces Standards. Pour initier des conversations et construire des liens, les gens ont besoin de savoir qu’ils sont en sécurité. Facebook devrait également être un lieu où les gens peuvent exprimer librement leurs opinions, même si certaines personnes pourraient trouver ces opinions répréhensibles. C’est pourquoi l’équité est un principe si important : nous visons à appliquer ces normes de manière cohérente et équitable à toutes les communautés et à toutes les cultures. Nous exposons explicitement ces principes dans le préambule des Standards, en expliquant la raison d’être de chaque politique.

Application de nos politiques

L’efficacité de nos politiques dépend de la force et de l’exactitude de leur application, et leur mise en œuvre n’est pas toujours parfaite.

L’un des défis consiste à identifier les violations potentielles de nos Standards afin que nous puissions les examiner. La technologie nous aide. Nous utilisons une combinaison d’intelligence artificielle et de signalement de notre communauté d’utilisateurs pour identifier les messages, images ou autres contenus susceptibles de violer nos Standards de la Communauté. Ces signalement sont examinés par notre équipe en charge de l’application des Standards de la Communauté, qui travaille 24 heures sur 24, 7 jours sur 7, dans plus de 40 langues. À l’heure actuelle, nous nous appuyons sur plus de 7 500 vérificateurs de contenu – plus de 40 % par rapport à la même période l’an dernier.

Un autre défi consiste à appliquer avec précision nos politiques aux contenus qui nous a été signalé. Dans certains cas, nous commettons des erreurs parce que nos politiques ne sont pas suffisamment claires pour nos vérificateurs de contenu ; lorsque c’est le cas, nous nous efforçons de combler ces lacunes. Nous commettons parfois des erreurs car nos processus font appel à des individus, et chacun sait que l’erreur est humaine.

Recours

Nous savons que nous devons faire plus. C’est la raison pour laquelle, au cours de l’année à venir, nous allons donner aux gens la possibilité de faire appel de nos décisions. Dans un premier temps, nous allons lancer des procédures de recours pour les messages qui ont été retirés pour cause de nudité ou d’activité sexuelle, d’incitation à la haine et à la violence.

Voici comment fonctionne ce processus :

  • Si votre photo, vidéo ou message a été retiré(e) pour infraction à nos Standards de la Communauté, vous serez averti et aurez la possibilité d’effectuer une demande de révision supplémentaire.
  • Cette requête mènera à une révision par notre équipe (toujours par une personne), généralement sous 24 heures.
  • Si nous avons fait une erreur, nous vous en informerons et votre post, photo ou vidéo sera restauré.

Nous nous efforçons d’étendre ce processus en soutenant davantage de types d’infractions, en donnant aux gens l’occasion de fournir plus de contexte qui pourrait nous aider à prendre la bonne décision, et la mise à disposition du recours non seulement pour le contenu qui a été retiré mais aussi pour le contenu qui a été signalé et laissé. Nous croyons que le fait de donner à chacun la possibilité de participer au processus est un autre élément essentiel à la mise en place d’un système équitable.

Participation et contribution de la communauté

Nos efforts pour expliquer, améliorer et affiner nos Standards de la Communauté dépendent de la participation et de la contribution de gens du monde entier. En mai, nous lancerons les Forums Facebook, une série d’événements publics de dialogue et de débat autour des Standards de la Communauté, organisés en Allemagne, France, au Royaume-Uni, en Inde, à Singapour, aux Etats-Unis et dans d’autres pays afin de recueillir les commentaires des utilisateurs. Nous partagerons plus de détails sur ces initiatives au fur et à mesure que nous les finaliserons.

Comme l’a souligné notre PDG Mark Zuckerberg au début de l’année : « Nous n’empêcherons pas toutes les erreurs ou les abus, mais nous commettons actuellement trop d’erreurs en appliquant nos politiques et en empêchant l’utilisation abusive de nos outils ». La publication de nos directives internes aujourd’hui, ainsi que l’élargissement de notre processus de recours, nous permettra de nous améliorer au fil du temps. Ce sont des questions complexes et nous sommes engagés à faire mieux.

Retrouvez le texte des Standards de la Communauté détaillés ici : https://www.facebook.com/communitystandards


FAQ

  • Avez-vous modifié l’une de vos politiques avec cette mise à jour ?

Ce que nous partageons aujourd’hui n’est pas nouveau ; cela reflète des Standards qui sont en place depuis longtemps. Cependant, pour la première fois, nous publions l’ensemble de directives internes d’application des Standards de la Communauté sur lesquels nos vérificateurs de contenu s’appuient pour prendre des décisions sur ce qui est autorisé ou non sur Facebook.

Il est important de noter que nos normes évoluent. Dans certains cas, les changements sont provoqués par des retours que nous recevons de parties prenantes externes. Dans d’autres, nous apportons des changements pour tenir compte de la façon dont le langage est utilisé. Dans d’autres encore, un changement est nécessaire en raison d’une lacune dans la politique existante. Ce processus se poursuivra, ainsi que les mises à jour de nos Standards.

Nous partagerons ces mises à jour publiquement et publierons des archives consultables afin que les gens puissent suivre les changements au fil du temps.

  • S’agit-il des mêmes directives que celles que vos vérificateurs utilisent ? Avez-vous enlevé quelque chose ?

Oui. À compter d’aujourd’hui, nos Standards de la Communauté externes reflètent étroitement nos directives internes d’application. Vous nous avez dit que vous ne comprenez pas nos politiques ; c’est notre responsabilité de fournir de la clarté. Il s’agit d’un effort pour expliquer où nous plaçons les limites quand il s’agit de contenu sur Facebook. Nous espérons que cette publication invite et encourage un échange qui nous aide à peaufiner et à améliorer nos politiques.

  • Vous dites que vous travaillez avec des experts. Qui sont-ils ?

Nous travaillons avec des experts du monde entier, notamment des universitaires, des organisations non-gouvernementales, des chercheurs et des juristes. Ces personnes et organisations représentent la diversité de pensée, d’expérience et de parcours. Ils apportent une contribution inestimable lorsque nous réfléchissons à la révision de nos politiques et nous aident à mieux comprendre l’impact de nos politiques.

En ce qui concerne le discours de haine, par exemple, nous avons travaillé avec Timothy Garton Ash, professeur à l’Université d’Oxford, qui a créé le Free Speech Debate (Débat sur la liberté d’expression) pour examiner ces questions sur une base interculturelle. De même, dans le cadre de l’élaboration de nos politiques visant à protéger les personnes contre l’exploitation sexuelle, nous avons réuni plus de 150 organisations et experts en sécurité dans des pays du monde entier, dont les États-Unis, le Kenya, l’Inde, l’Irlande, l’Espagne, la Turquie, la Suède et les Pays-Bas.

  • Comment assurez-vous la cohérence au sein de vos équipes de vérificateurs et vous protégez-vous contre les préjugés et les erreurs humaines ?

Nos Standards de la Communauté sont mondiaux, et tous les vérificateurs utilisent les directives que nous avons publiées aujourd’hui pour prendre des décisions. Ils suivent une formation approfondie dans le cadre de leur processus d’intégration et sont formés et testés à intervalles réguliers par la suite.

Nous sommes extrêmement prescriptifs dans l’élaboration de nos politiques, et nous essayons de rédiger des politiques qui permettent de distinguer clairement les contenus qui violent nos Standards et ceux qui les respectent, afin de rendre le processus de prise de décision pour les vérificateurs aussi objectif que possible. Nos vérificateurs bénéficient de mécanismes de contrôle de la qualité, et d’une équipe de management vers laquelle ils peuvent se tourner pour obtenir des conseils. Nous vérifions également l’exactitude des décisions des vérificateurs sur une base hebdomadaire. Lorsque des erreurs sont commises, nous assurons un suivi auprès des membres de l’équipe afin d’éviter qu’elles se reproduisent.

Même avec nos audits de qualité, nous savons que nous pouvons faire des erreurs. C’est pourquoi nous avons donné aux gens la possibilité de faire appel de nos décisions lorsque nous avons retiré leur profil, Page ou Groupe. Au cours de l’année, nous allons étendre la capacité des gens de faire appel de nos décisions. Dans un premier temps, nous lançons des recours pour des contenus retirés pour nudité ou activité sexuelle, discours de haine et violence, afin que les gens puissent nous faire savoir quand ils pensent que nous avons fait une erreur.

  • Pourriez-vous m’en dire plus sur les Forums Facebook ? Avez-vous déjà organisé de tels événements avant ?

Nous faisons de notre mieux pour recueillir des commentaires externes de différentes façons. Les Forums Facebook sont un format que nous n’avons jamais essayé auparavant, et nous sommes impatients d’écouter et d’apprendre de notre communauté. La structure de l’événement variera selon la ville dans laquelle nous nous trouvons, et nous avons hâte de partager plus de détails prochainement.