C'est une nouvelle illustration des biais des algorithmes. Le système de recommandation de contenus de Facebook s'est livré à une suggestion raciste sous une vidéo du Daily Mail datant de 2020 dans laquelle figurent des personnes noires.
En dessous d'un clip du tabloïd britannique intitulé "Un homme blanc appelle les flics contre des hommes noirs à la Marina", l'algorithme de reconnaissance d'images du réseau social a demandé à ses utilisateurs s'ils souhaitaient voir d'autres "vidéos sur les primates", avec les options "Oui" ou "Rejeter" affichées à l'écran.
Révélée par le New York Times, l'affaire a déclenché une enquête interne chez Facebook pour comprendre comment une telle erreur a pu se produire. Le réseau social a désactivé son outil de recommandation et présenté ses excuses dans la presse. "C'est clairement une erreur inacceptable", a réagi une porte-parole de Facebook, sollicitée par l'AFP.
L'incident met à nouveau en lumière les limites des algorithmes d'intelligence artificielle. Ces technologies sont utilisées par Facebook pour personnaliser le fil d'actualité de chacun de ses plus de 2 milliards d'utilisateurs mensuels mais aussi pour modérer les contenus, détecter et bloquer les messages problématiques.
Des études ont montré que ces technologies sont nécessairement discriminantes car elles reflètent les biais de leurs concepteurs et de la société mais aussi ceux des systèmes de données utilisés pour les entraîner.
Aux États-Unis, par exemple, les systèmes d'intelligence artificielle utilisés par la police ou la justice pour prédire le risque de récidive ou la survenance des crimes se sont avérés racistes envers les populations noires et latinos. Un biais raciste a empêché des millions de personnes noires d'accéder à des soins de santé optimaux. Des chercheurs ont aussi découvert que les voitures autonomes ont plus de mal à éviter les piétons de couleur que les personnes blanches.
Malgré toute leur bonne volonté, les plateformes sociales sont régulièrement prises en défaut dans ce domaine. En 2015, le logiciel de reconnaissance photo de Google avait confondu deux personnes afro-américaines avec des gorilles. Twitter a été épinglé l'an passé pour un algorithme mettant davantage en avant les visages de personnes blanches que ceux des personnes noires.
Bienvenue sur RTL
Ne manquez rien de l'actualité en activant les notifications sur votre navigateur
Cliquez sur “Autoriser” pour poursuivre votre navigation en recevant des notifications. Vous recevrez ponctuellement sous forme de notifciation des actualités RTL. Pour vous désabonner, modifier vos préférences, rendez-vous à tout moment dans le centre de notification de votre équipement.
Bienvenue sur RTL
Rejoignez la communauté RTL, RTL2 et Fun Radio pour profiter du meilleur de la radio
Je crée mon compte