Pour publier en toute sérénité, il faut avant tout se sentir en sécurité. C’est pourquoi, au cours de ces deux dernières années, nous avons massivement investi dans la technologie et les ressources humaines afin de supprimer plus efficacement les contenus indésirables.

Au printemps dernier, nous avons pour la première fois publié les directives internes que nos équipes de vérification utilisent pour appliquer nos Standards de la communauté, afin de permettre à notre communauté de mieux comprendre ce qui est autorisé sur Facebook et pourquoi. En mai, nous avons publié des chiffres concernant la quantité de contenus en infraction que nous avons détectés, afin de permettre à tous d’évaluer la qualité de notre travail.

Aujourd’hui, nous publions notre second rapport sur l’application de nos Standards de la communauté. Ce second rapport recense nos efforts d’application de nos politiques contre la nudité et l’activité sexuelle des adultes, les faux comptes, les discours haineux, le spam, la propagande terroriste, la violence visuelle, pour les six mois d’avril à septembre 2018. Le rapport comprend également deux nouvelles catégories de données : l’intimidation et le harcèlement, et la nudité et exploitation sexuelle d’enfants.

Recherche de contenu en infraction

Nous parvenons de plus en plus souvent à identifier le contenu en infraction de manière proactive avant que celui-ci ne soit signalé, en particulier en ce qui concerne les discours incitant à la haine et la violence visuelle. Mais nous devons encore nous améliorer dans certains domaines.

    • Depuis notre dernier rapport, le pourcentage de discours incitant à la haine que nous avons détectés de manière proactive avant que ceux-ci ne soient signalés a plus que doublé, passant de 24 % à 52 %. La plupart des publications que nous avons supprimées dans le cas de discours incitant à la haine sont des publications que nous avons trouvées avant que celles-ci ne soient signalées. C’est un effort essentiel pour nous. Nous continuons ainsi d’investir considérablement là où notre travail n’en est qu’à ses débuts et pour améliorer nos performances dans les langues moins répandues.
    • Notre taux de détection proactive de la violence visuelle a augmenté de 25 points de pourcentage, passant de 72 % à 97 %.

Suppression de contenu et de comptes en infraction

Nous trouvons et nous supprimons de plus en plus de contenus indésirables. Au troisième trimestre 2018, nous avons agi sur 15,4 millions contenus comprenant de la violence visuelle. Cela comprenait la suppression du contenu, l’affichage d’un écran d’avertissement, la désactivation du compte incriminé et/ou la transmission du contenu aux forces de l’ordre. C’est plus de 10 fois qu’au quatrième trimestre de 2017.

Cette augmentation est en grande partie due à l’amélioration de nos technologies, qui nous ont permis d’appliquer automatiquement la même action à plusieurs contenus extrêmement semblables, voire identiques. De la même manière, comme nous l’avons annoncé la semaine dernière, la quantité de contenu terroriste que nous avons supprimé a considérablement augmenté au deuxième trimestre 2018. Nous avons étendu l’utilisation de notre système de mise en correspondance de médias, une technologie qui détecte les photos extrêmement semblables à des contenus en infraction se trouvant déjà dans notre base de données, afin de supprimer d’anciennes images de propagande terroriste. Une autre partie de cette augmentation est due à la correction d’un bug qui nous empêchait de supprimer certains contenus en infraction.
Nous avons également supprimé plus de faux comptes au deuxième et au troisième trimestre qu’au cours des trimestres précédents : 800 millions et 754 millions respectivement. La plupart de ces faux comptes ont été créés en masse pour des raisons commerciales. Nous sommes en mesure de supprimer la plupart de ces comptes seulement quelques minutes après leur création, c’est pourquoi la prédominance de faux comptes sur Facebook s’est stabilisée entre 3 et 4% des utilisateurs actifs mensuels, comme nous l’avons rapporté dans nos résultats du troisième trimestre.

Ajout de nouvelles catégories

En ce qui concerne les nouvelles catégories que nous avons ajoutées à ce rapport (l’intimidation et le harcèlement, et la nudité et exploitation sexuelle d’enfants), les données nous serviront de point de départ pour mesurer nos progrès contre ces infractions dans le temps.

L’intimidation et le harcèlement sont souvent des sujets personnels qui dépendent du contexte, c’est pourquoi nous avons généralement besoin que quelqu’un nous signale ces comportements afin de pouvoir les identifier et les supprimer. Notre taux de détection proactive est donc inférieur pour ces deux catégories. Au dernier trimestre, nous avons agi sur 2,1 millions d’éléments de contenu allant à l’encontre de nos politiques contre l’intimidation et le harcèlement, et 15 % de ces éléments ont été supprimés avant signalement. Nous avons découvert ces contenus de manière proactive en recherchant d’autres types d’infractions. Pour les victimes, le fait de devoir signaler le contenu avant que nous ne puissions intervenir peut s’avérer bouleversant. Nous sommes déterminés à améliorer notre compréhension de ce type d’abus afin de mieux les détecter de manière proactive.

Nos Standards de la communauté interdisent l’exploitation d’enfants. Mais, afin d’éviter tout risque d’abus, nous supprimons également certains contenus non sexuels, par exemple d’innocentes photos d’enfants dans leur bain, qui pourraient être utilisées de façon inadéquate dans un autre contexte. Au dernier trimestre seulement, nous avons supprimé 8,7 millions de contenus contraires à nos politiques en matière de nudité infantile ou d’exploitation sexuelle d’enfants, et 99% ont été supprimés avant signalement. Nous avons également récemment annoncé une nouvelle technologie pour lutter contre l’exploitation d’enfants sur Facebook, qui nous permettra d’identifier davantage de contenus illégaux plus rapidement.

De manière générale, nous savons que nous avons encore beaucoup à faire en ce qui concerne la prévention des abus sur Facebook. Le machine learning et l’intelligence artificielle continueront de nous aider à détecter et à supprimer les contenus indésirables de Facebook. La mesure de nos progrès est également essentielle, car elle permet à nos équipes de se concentrer sur ces défis et d’évaluer l’efficacité de notre travail. Pour nous aider à évaluer nos processus et nos méthodes de traitement des données, nous travaillons en collaboration avec le Data Transparency Advisory Group (DTAG), un groupe d’experts en matière de mesure et de gouvernance. Nous continuerons d’améliorer ces données dans le temps afin de les rendre plus précises et plus pertinentes.

Pour plus d’informations :