Avec la publication de son premier rapport trimestriel sur la modération, Facebook a vanté son succès dans le traitement des faux comptes.
Le géant des réseaux sociaux a déclaré que ce rapport démontrait le nombre croissant de spams, de discours haineux et de violence et a révélé qu’il avait fermé 583 millions de faux comptes au cours des trois premiers mois de 2018.
Facebook a déclaré qu’il avait pris des mesures de modération contre près de 1,5 milliard de comptes et de messages qui violaient les règles de sa communauté durant la même période.
La société a déclaré que l’écrasante majorité des mesures de modération concernait les spams et les faux comptes.
Plus en détail, Facebook a déclaré avoir pris des mesures à l’égard de 837 millions de spams et avoir fermé 583 millions de faux comptes sur le site.
En outre, Facebook a souligné qu’il avait modéré 2,5 millions de discours haineux, 1,9 million d’éléments de propagande terroriste, 3,4 millions d’éléments de violence graphique et 21 millions d’éléments présentant des scènes de nudité et d’activité sexuelle d’adultes.
Commentant ces faits, Richard Allan, vice-président des politiques publiques de Facebook pour l’Europe, le Moyen-Orient et l’Afrique, a déclaré : « C’est le début du périple et non la fin et nous essayons d’être aussi transparents que possible. »
De plus, Alex Schultz, vice-président de l’analyse des données de l’entreprise, a révélé que la quantité de contenu modéré pour violence graphique a presque triplé d’un trimestre à l’autre.
M. Schultz a ajouté qu’une hypothèse pour cette augmentation était que « dans le trimestre le plus récent, des événements malheureux se sont produits en Syrie. Souvent, lorsqu’il y a des choses vraiment mauvaises dans le monde, beaucoup de ces informations parviennent sur Facebook. »
Il a en outre souligné qu’une grande partie de la modération dans ces cas consistait simplement à « signaler quelque chose de dérangeant ».
L’intelligence artificielle pour surveiller Facebook
Selon certaines sources, cependant, plusieurs des catégories mentionnées dans les directives de modération de Facebook n’ont pas été incluses dans le rapport.
Il s’agit notamment d’images pédopornographiques, de pornographie pour se venger, de messages suicidaires, d’intimidation, de harcèlement, d’atteinte à la vie privée et de violation du droit d’auteur.
Dans le rapport, Facebook a également déclaré qu’il était parvenu à utiliser des outils d’intelligence artificielle pour détecter 98,5 % des faux comptes qu’il a fermés, et « près de 100 % » du spam.
M. Schultz a fait valoir que le signalement automatique fonctionnait bien pour trouver des cas de nudité, puisqu’il était facile pour la technologie de reconnaissance d’images de déterminer ce qu’il fallait rechercher.
Entre-temps, commentant la modération des discours incitant à la haine, Facebook a déclaré dans le rapport : « Nous avons trouvé et signalé environ 38 % du contenu sur lequel nous avons par la suite pris des mesures, avant que les utilisateurs nous le signalent. »