• 3,5 millions de contenus violents ou haineux supprimés au premier trimestre 2018
  • 21 millions de contenus comprenant de la nudité adulte ou de la pornographie supprimés au premier trimestre 2018
  • 837 millions de contenus relatifs à des spams supprimés au premier trimestre 2018

Facebook organise aujourd’hui à Paris un forum de dialogue et de débat avec les acteurs français autour de ses règles de gestion des contenus, dites Standards de la Communauté, en présence de Monika Bickert, directrice de la politique mondiale des contenus de Facebook.

Nous sommes régulièrement questionnés sur la manière dont nous décidons de ce qui est autorisé sur Facebook, et sur le nombre de contenus qui enfreignent les règles énoncées dans les Standards de la communauté. Depuis des années, nous avons des Standards de la Communauté qui expliquent ce qui est autorisé, ou pas, sur Facebook. Il y a trois semaines, pour la première fois, nous avons publié nos directives internes que nous utilisons pour appliquer ces normes. Aujourd’hui, nous publions un rapport contenant des chiffres inédits sur l’application de ces règles afin que vous puissiez juger de notre performance par vous-même.

Ce rapport couvre nos efforts d’application des Standards de la communauté entre octobre 2017 et mars 2018 et couvre six domaines : la violence visuelle, la nudité adulte et la pornographie, la propagande terroriste, le discours de haine, le spam et les faux comptes. Les chiffres s’intéressent à :

  • La quantité de contenus que les gens ont vus et qui étaient à l’encontre de nos règles
  • La quantité de contenus que nous avons supprimés
  • La quantité de contenus que nous avons détectés de manière proactive à l’aide de notre technologie, c’est-à-dire avant même que les utilisateurs de Facebook ne les signalent
Quelques chiffres clés
  • Les spams : Nous avons retiré 837 millions de contenus relatifs à des spams au premier trimestre 2018, dont près de 100 % ont été détectés et signalés avant que quiconque ne les signale. (Extrait de nos Standards de la Communauté)
  • Les faux comptes : La clé de la lutte contre les spams est de supprimer les faux comptes qui les propagent. Au premier trimestre, nous avons désactivé environ 583 millions de faux comptes, dont la plupart ont été désactivés quelques minutes après leur inscription. Ceci s’ajoute aux millions de tentatives de création de faux comptes que nous empêchons quotidiennement de s’inscrire sur Facebook. Dans l’ensemble, nous estimons qu’environ 3 à 4% des comptes Facebook actifs sur le site au cours de cette période étaient des faux comptes.  (Extrait de nos Standards de la Communauté)
  • La nudité adulte ou la pornographie : Nous avons supprimé 21 millions de contenus comprenant de la nudité adulte ou de la pornographie au premier trimestre 2018, dont 96% ont été identifiés et signalés par notre technologie avant qu’ils ne soient signalés par notre communauté. Dans l’ensemble, nous estimons que sur 10 000 contenus visionnés sur Facebook, 7 à 9 n’étaient pas conformes avec nos politiques en matière de nudité adulte et de pornographie. (Extrait de nos Standards de la Communauté)
  • Les images violentes et les discours haineux : Au premier trimestre 2018, nous avons supprimé ou apposé des avertissements sur environ 3,5 millions de contenus violents, dont 86% ont été identifiés par notre technologie avant d’être signalés à Facebook. Par comparaison, nous avons supprimé 2,5 millions de contenus comportant des discours haineux au premier trimestre 2018, dont 38% ont été signalés par notre technologie. Nous travaillons à l’amélioration de cette technologie. (Extrait de nos Standards de la Communauté)

Comme évoqué par Mark Zuckerberg lors de la conférence F8, nous avons encore beaucoup de travail à accomplir pour prévenir les abus sur notre plateforme. C’est en partie parce que la technologie comme l’intelligence artificielle, bien que prometteuse, est encore loin d’être efficace pour la plupart des contenus non conformes à nos politiques. En effet, le contexte prend une place importante dans la décision. Par exemple, l’intelligence artificielle n’est pas encore assez efficace pour déterminer si quelqu’un appelle à la haine ou s’il décrit une situation vécue à des fins de sensibilisation de l’opinion publique. Et plus généralement, comme expliqué dans ce blogpost, la technologie a besoin de grandes quantités de données de formation pour reconnaître des schémas de comportement significatifs, ce qui nous manque souvent dans des langues moins répandues ou pour des cas qui ne sont pas signalés régulièrement. De plus, dans de nombreux domaines, qu’il s’agisse de spams, de pornographie ou de faux comptes, nous sommes confrontés à des adversaires sophistiqués qui changent continuellement de tactiques pour contourner nos contrôles, ce qui signifie que nous devons continuellement adapter nos efforts. C’est pourquoi nous investissons massivement dans la croissance de nos équipes et dans une meilleure technologie, pour rendre Facebook plus sûr pour tout le monde.

C’est aussi la raison pour laquelle nous publions ces informations. Nous croyons que la transparence tend à accroître la responsabilisation et la responsabilité au fil du temps, et la publication de ces informations nous encourage à nous améliorer plus rapidement. Ce sont les mêmes données que nous utilisons pour mesurer nos progrès en interne – et vous pouvez maintenant le voir pour juger de nos progrès par vous-mêmes.

Alex Schultz, notre vice-président en charge de l’analyse des données, explique plus en détail comment nous mesurons exactement ce qui se passe sur Facebook dans ce blogpost et dans notre guide pour « Comprendre le rapport sur l’application des Standards de la communauté ». Mais il est important de souligner qu’il s’agit d’un travail que nous menons en continu, et que nous adapterons notre méthodologie au fur et à mesure que nous en apprendrons davantage sur ce qui est important et ce qui fonctionne.

Forum Facebook aujourd’hui à Paris : dialogue et débat des acteurs français autour de Standards de la Communauté de Facebook

Lors de la publication de nos directives internes d’application des Standards de la Communauté, nous avions annoncé la tenue d’une série d’événements publics de dialogue et de débat autour des Standards de la Communauté, en Allemagne, en France, au Royaume-Uni, en Inde, à Singapour, aux Etats-Unis et dans d’autres pays afin de recueillir les commentaires des utilisateurs.

C’est aujourd’hui, mardi 15 mai, qu’a lieu le premier Forum Facebook à Paris. Monika Bickert, Directrice de la politique de contenus de Facebook et de nombreux experts extérieurs, échangent sur les évolutions de la politique de modération des contenus de Facebook et les enjeux associés. Les participants ont ainsi l’opportunité de s’immerger dans la politique de contenus de Facebook autour d’exemples concrets, de poser leurs questions aux experts Facebook mais aussi à des experts extérieurs, et de participer à des ateliers de réflexion sur la politique de modération des contenus.

Plusieurs ateliers thématiques sont organisés :

  • « Violence et comportement criminel », animé par Erin Saltman, Responsable de la politique de lutte contre le terrorisme pour la région EMEA
  • « Sécurité », animé par Julie de Bailliencourt, Directrice mondiale de la sécurité des utilisateurs
  • « Contenus de haine », animé par Monika Bickert, Directrice mondiale de la politique de contenus

De nombreux experts participent au Sommet, comme par exemple Jérémie Mani, Président de la société Netino, spécialisée dans la modération des espaces participatifs, Frédéric Potier, directeur de la DILCRAH en charge de la lutte contre les contenus de haine, ou encore Marc Hecker, expert de la lutte anti-terroriste.

Ressources


Rapport sur l’application des Standards de la Communaute Facebook : Chiffres Clés

Le rapport que nous présentons aujourd’hui couvre nos efforts d’application des Standards de la communauté entre octobre 2017 et mars 2018 et s’attarde sur les six domaines suivants : la violence visuelle, la nudité adultes et la pornographie, la propagande terroriste, le discours de haine, le spam et les faux comptes.

Violence visuelle

  • Au premier trimestre 2018, 0,22 % à 0,27 % (sur 10 000 visualisation de contenus, une estimation de 22 à 27 contenaient de la violence visuelle) des vues étaient liées à des contenus qui enfreignaient nos politiques en matière de violence visuelle. L’estimation était de 0,16 % à 0,19 % au quatrième trimestre de 2017.
  • Au premier trimestre, nous avons pris des mesures contre 3,4 millions de contenus liés à de la violence visuelle. Il s’agit à la fois de la suppression de contenus et d’actions prises contre des contenus en les identifiant comme dérangeants pour cause de violence visuelle. La grande majorité de ces contenus n’ont pas été supprimés mais ils ont été accompagnés d’un message d’avertissement afin de prévenir et de protéger les utilisateurs sensibles.
  • Au premier trimestre 2018, nous avons identifié et signalé proactivement 85,6 % de contenus sur lesquels nous avons par la suite pris des mesures, avant que les utilisateurs nous les signalent.

Nudité adulte et pornographie (hors contenus liés à l’exploitation sexuelle et à la pédopornographie)

  • Au premier trimestre 2018, de 0,07 % à 0,09 % des consultations ont porté sur des contenus qui enfreignaient nos normes relatives à la nudité et à l’activité sexuelle des adultes. Ce chiffre est légèrement supérieur à l’estimation du 4ème trimestre 2017 qui était de 0,06 % à 0,08 %.
  • Au premier trimestre 2018, nous avons pris des mesures à l’encontre de 21 millions de contenus, chiffre similaire au quatrième trimestre 2017.
  • Au premier trimestre 2018, nous avons identifié et signalé proactivement 95,8 % des contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent. Nous avons agi sur les 4,2 % restants parce que les utilisateurs nous les ont signalés en premier.

Propagande terroriste (ISIS, Al-Qaïda et ses affiliés)

  • Par rapport à d’autres types de violation comme la violence visuelle, le nombre de vues de contenu de propagande terroriste lié à ISIS, à Al-Qaïda et à leurs affiliés sur Facebook est extrêmement faible.
  • Au premier trimestre 2018, nous avons pris des mesures à l’encontre de 1,9 million de contenus, ce qui représente une augmentation de 73 % par rapport au 1,1 million de contenus identifiés au 4ème trimestre de 2017. Cette augmentation est due à l’amélioration de notre capacité à identifier des contenus grâce à la technologie de détection de photos, qui détecte à la fois le contenu ancien et le contenu nouvellement publié.
  • Au premier trimestre 2018, nous avons identifié et signalé proactivement 99,5 % de contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne le signalent. Nous avons agi sur 0,05 % des contenus restants suite aux signalements d’utilisateurs.

Discours de haine

  • Aucun chiffre n’indique la prévalence de la propagande haineuse sur Facebook.
  • Au 1er trimestre 2018, nous avons pris des mesures à l’encontre d’environ 2,5 millions de contenus, soit une hausse d’environ 56 % par rapport à environ 1,6 million de contenus au quatrième trimestre 2017.
  • Au 1er trimestre 2018, nous avons identifié et signalé proactivement environ 38 % de contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs nous les signalent. Nous avons agi sur les 62 % restants parce que les utilisateurs les ont déclarés en amont.
  • Les contenus impliquants des discours de haine exigent souvent un examen détaillé par nos examinateurs formés pour comprendre le contexte et décider si le contenu enfreint les normes, ainsi nous en identifions et signalons moins proactivement et nous nous fions davantage aux signalements de nos utilisateurs que pour d’autres cas de violations de nos normes.

Spams

  • Au 1er trimestre 2018, nous avons pris des mesures à l’encontre de 837 millions de contenus, ce chiffre est en hausse de 15 % par rapport aux 727 millions de contenus au quatrième trimestre de 2017.
  • Au 1er trimestre 2018, nous avons identifié et signalé proactivement près de 100 % des contenus sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent.

Faux comptes

  • Nous estimons que les faux comptes représentaient environ 3 % à 4 % des utilisateurs actifs mensuels (MAU) sur Facebook au 1er trimestre 2018 et au 4ème trimestre 2017.
  • Au 1er trimestre 2018, nous avons désactivé 583 millions faux comptes, ce chiffre est en baisse de 16 % par rapport aux 694 millions désactivés au 4ème trimestre 2017.
  • Au 1er trimestre de 2018, nous avons identifié et signalé proactivement 98,5 % des comptes sur lesquels nous avons pris des mesures par la suite, avant que les utilisateurs ne les signalent.