Publié le: 15/05/2018 @ 17:42:22: Par Nic007  Dans "Social "
SocialFacebook a publié pour la première fois mardi un bilan chiffré de ses efforts pour supprimer de sa plateforme les contenus contrevenant à ses règles d'utilisation, qu'il s'agisse d'images à caractère sexuel, de commentaires haineux ou de propagande terroriste. Au total 3,4 millions d'images violentes ont été supprimées ou assorties d'avertissements au premier trimestre 2018, presque le triple du trimestre précédent, selon un rapport inédit, qui s'inscrit dans les efforts de transparence du groupe confronté au scandale Cambrige Analytica.

Un bond lié principalement, selon le réseau, à une amélioration de ses technologies d'analyse, qui font de plus en plus appel à l'intelligence artificielle. Dans près de 86% des cas, ces images ont été détectées par le réseau avant même lui avoir été préalablement signalés. Elles ont représenté moins de 0,3% des contenus visionnés sur sa plateforme entre janvier et mars. Concernant les images de nudité ou d'activité sexuelle (hors pédopornographie), le groupe déclare 21 millions d'éléments supprimés au premier trimestre, autant que fin 2017. Cela représente moins de 0,1% des contenus visionnés, et dans près de 96% des cas les images sont supprimées avant tout signalement. Parfois avec trop de zèle, comme lorsque le réseau censure certaine oeuvres d'art pourtant tolérées par ses règles, à l'image de "La liberté guidant le peuple" de Delacroix.

Concernant la propagande terroriste, le groupe a confirmé des chiffres de fin avril: 1,9 million de contenus ont été supprimés au premier trimestre, soit 73% de plus qu'au 4e trimestre 2017, grâce à des améliorations technologiques. 99,5% des contenus supprimés l'ont été avant tout signalement. Facebook peine en revanche à détecter les messages de haine. Le groupe dit en avoir supprimé 2,5 millions au 1er trimestre (56% de plus qu'au trimestre précédent), mais seuls 38% ont été détectés avant tout signalement. Le groupe explique avoir du mal à gérer ces messages car l'intelligence artificielle peine encore à trier le bon grain de l'ivraie: des insultes racistes ou homophobes peuvent par exemple être "réappropriées" par les minorités qu'elles visent, ou dans le but de les dénoncer, ce qui est normalement permis par la plateforme.
Poster un commentaire
Vous devez être identifié pour accéder à cette fonctionnalité

Utilisateur
Mot de passe
 
Publicité
Informaticien.be  - © 2002-2018 Akretio SPRL  - Generated via Kelare - Hosted by Verixi Internet Services
The Akretio Network: Akretio  - Freedelity  - KelCommerce  - Votre publicité sur informaticien.be ?