Protéger Facebook Live contre les abus et investir dans la recherche sur les contenus manipulés

Par Guy Rosen, Vice-Président Intégrité, Facebook

Suite aux terribles attaques terroristes en Nouvelle-Zélande, nous avons réfléchi à ce que nous pouvions faire de plus pour réduire le risque que nos services ne soient utilisés pour causer du tort ou répandre la haine. En conséquence de quoi, à partir d’aujourd’hui, les personnes qui enfreignent certaines règles sur Facebook – y compris notre politique en matière d’individus et d’organismes dangereux – verront leur utilisation de Facebook Live restreinte.

De plus, il est clair que s’attaquer à ces menaces nécessite des innovations techniques pour garder une longueur d’avance face à la manipulation de contenus que nous avons pu observer après Christchurch, lorsque certains utilisateurs ont modifié la vidéo après qu’elle ait été retirée afin d’éviter qu’elle ne soit détectée et pouvoir la publier à nouveau. Pour cela, il est nécessaire que l’industrie et le monde académique mènent des recherches fondamentales. Ainsi, nous annonçons également de nouveaux partenariats de recherche avec des chercheurs de premier rang de trois universités pour un total de 7,5 millions de dollars, destinés à améliorer les technologies d’analyse d’images et de vidéos.

Des restrictions à l’utilisation de Facebook Live

L’écrasante majorité des personnes utilisent Facebook Live à des fins positives, par exemple pour partager un moment avec des amis ou pour sensibiliser d’autres personnes à une cause qui les intéresse. Pourtant, Facebook Live peut être détourné de son usage et nous voulons prendre des mesures pour limiter ces abus.

Jusqu’à aujourd’hui, si des personnes publiaient du contenu contraire à nos standards de la communauté – sur Facebook Live ou ailleurs sur notre plateforme – nous supprimions leurs contenus. S’ils continuaient de publier du contenu enfreignant nos standards, nous les empêchions d’utiliser Facebook pendant un certain temps, leur retirant ainsi la possibilité d’utiliser Facebook Live. Et dans certains cas, nous les excluions de notre plateforme, en raison de violations mineures répétées ou, dans des cas plus rares, en raison d’une unique violation flagrante (comme par exemple l’utilisation d’une image de propagande terroriste comme photo de profil ou le partage d’images d’exploitation infantile).

Aujourd’hui, nous durcissons les règles spécifiques à Facebook Live, en appliquant une politique dite de « première infraction ». Ainsi, toute personne qui enfreindra nos politiques les plus sensibles se verra interdire l’utilisation de Facebook Live pour une période déterminée – par exemple 30 jours – à compter de sa première infraction. Par exemple, quelqu’un qui partage un lien vers un communiqué d’un groupe terroriste sans élément de contexte se verra immédiatement interdire l’utilisation de Facebook Live pour une période déterminée.

Nous prévoyons d’étendre ces restrictions à d’autres domaines au cours des prochaines semaines, en commençant par le fait d’empêcher ces personnes de créer des publicités sur Facebook.

Nous sommes conscients des antagonismes entre les personnes qui préféreraient un accès sans entrave à nos services et les restrictions nécessaires pour assurer la sécurité des utilisateurs sur Facebook. Notre objectif est de limiter les risques d’abus sur Facebook Live tout en permettant aux personnes d’utiliser ce service de manière positive chaque jour.

Des investissements dans la recherche sur les contenus manipulés

L’un des défis auxquels nous avons été confrontés dans les jours qui ont suivi l’attaque a été la prolifération de nombreuses variantes de la vidéo de l’attaque. Des personnes ont partagé – pas toujours intentionnellement – des versions modifiées de la vidéo, ce qui a rendu leur détection difficile pour nos systèmes.

Même si nous avons déployé un certain nombre de techniques pour détecter ces variantes, notamment grâce à des technologies de comparaison vidéo et audio, nous avons réalisé qu’il s’agissait d’un domaine où nous devons investir dans des recherches additionnelles.

C’est pourquoi nous annonçons aujourd’hui des partenariats avec trois universités – l’Université du Maryland, Cornell, et l’Université de Californie, Berkeley – axés sur la recherche de nouvelles techniques pour :

  • Détecter les manipulations de contenus (photos, vidéo et audio)
  • Distinguer les publications involontaires de celles d’acteurs qui, au contraire, manipulent intentionnellement des vidéos et des photos.

Il est clair que la lutte contre la montée des contenus manipulés nécessitera des recherches approfondies et une collaboration entre l’industrie et le monde universitaire – nous avons besoin de travailler tous ensemble pour relever ce défi. Ces partenariats ne sont qu’une partie des efforts que nous déployons pour établir des partenariats avec le monde académique et nos collègues de l’industrie. Dans les mois qui viennent, nous poursuivrons ces collaborations afin que nous puissions tous agir aussi rapidement que possible pour innover face à cette menace.

Ce travail sera crucial dans le cadre d’efforts plus larges de notre part contre les contenus manipulés, y compris les DeepFakes. Nous espérons que cela nous aidera également à lutter plus efficacement contre les acteurs malveillants qui tentent de déjouer nos systèmes, comme nous l’avons vu après l’attaque de Christchurch.

Il s’agit de questions complexes et nous travaillons dans un environnement fait d’oppositions et en constante évolution. Nous savons que ce n’est qu’en restant vigilants et en travaillant avec des experts, d’autres entreprises, des gouvernements et la société civile, partout dans le monde, que nous pourrons assurer la sécurité des personnes. Nous nous réjouissons de la perspective de poursuivre notre travail ensemble.