Facebook investit pour renforcer sa politique de modération. À quelques heures de la publication de ses résultats trimestriels, le groupe de Mark Zuckerberg a annoncé mercredi 3 mai qu'il allait embaucher 3.000 modérateurs en pour renforcer son équipe de modération - composée pour l'instant de 4.500 personnes, un chiffre que l'entreprise avait jusqu'ici gardé secret - et mieux contrôler les vidéos en direct sur son réseau social. Cette annonce fait suite à une série de meurtres ou suicides filmés en temps réel sur Facebook.
La semaine dernière, un Thaïlandais a tué son bébé de 11 mois avant de se donner la mort en direct sur Facebook Live. La semaine précédente, un Américain surnommé "le meurtrier de Facebook" avait diffusé l'assassinat d'un grand-père sur le réseau social avant de se suicider après plusieurs jours de traque. Ces drames filmés sur la plateforme grand public avaient choqué les internautes et beaucoup avaient reproché à Facebook d'avoir été trop lent à réagir.
"Ces dernières semaines, nous avons vu des gens se faire du mal ou faire souffrir d'autres personnes sur Facebook Live ou via des vidéos publiées sur Facebook. Si nous devons bâtir une communauté sûre, il nous faut répondre rapidement. (...) Cette année, nous allons recruter plus de 3.000 personnes dans le monde entier, en plus de 4.500 que nous employons déjà, pour contrôler les signalements que nous recevons tous les jours et répondre plus rapidement aux demandes", a écrit Mark Zuckerberg sur sa page Facebook.
Cette annonce doit répondre aux défis soulevés par la vidéo en direct, un outil introduit par Facebook l'an dernier qui permet à n'importe quel utilisateur de se filmer et de diffuser son flux en temps réel. Ces nouvelles recrues seront chargées d'analyser les contenus signalés par les internautes et de supprimer ceux qui enfreignent la politique de Facebook, à savoir les scènes de nudité, les discours haineux et les contenus violents et explicites.
Facebook applique une modération a posteriori aux contenus publiés par ses membres. Une photo ou une vidéo doit être signalée par un ou plusieurs internautes comme enfreignant les règles de Facebook pour que les modérateurs ne s'en emparent. Outre un manque de réactivité, le système souffre d'un déficit de compréhension. Facebook a parfois censuré des contenus qui devraient être acceptés, comme la célèbre photo de "la fillette au Napalm", supprimée pour nudité avant d'être remise en ligne.
Mark Zuckerberg annonce également de futurs outils pour simplifier le signalement des contenus et fluidifier la modération. Le patron de Facebook avait déjà indiqué fin février dans un long texte en forme de manifeste qu'il misait sur les progrès de l'intelligence artificielle pour rendre la modération plus efficace. "Nous travaillons sur des systèmes qui pourront analyser des photos et des vidéos afin de déterminer automatiquement les contenus que nos équipes de modération doivent contrôler", affirmait-il alors.
Bienvenue sur RTL
Ne manquez rien de l'actualité en activant les notifications sur votre navigateur
Cliquez sur “Autoriser” pour poursuivre votre navigation en recevant des notifications. Vous recevrez ponctuellement sous forme de notifciation des actualités RTL. Pour vous désabonner, modifier vos préférences, rendez-vous à tout moment dans le centre de notification de votre équipement.
Bienvenue sur RTL
Rejoignez la communauté RTL, RTL2 et Fun Radio pour profiter du meilleur de la radio
Je crée mon compte