1. Accueil
  2. Actu
  3. Tech
  4. L'intelligence artificielle de Facebook a confondu des personnes noires avec des primates
2 min de lecture

L'intelligence artificielle de Facebook a confondu des personnes noires avec des primates

Les algorithmes de recommandation de contenus de Facebook ont confondu des personnes noires avec des singes, mettant en lumière les biais racistes de ces outils.

Le réseau social Facebook (illustration)
Crédit : AFP
Benjamin Hue
Je m'abonne à la newsletter « Infos »

C'est une nouvelle illustration des biais des algorithmes. Le système de recommandation de contenus de Facebook s'est livré à une suggestion raciste sous une vidéo du Daily Mail datant de 2020 dans laquelle figurent des personnes noires. 
En dessous d'un clip du tabloïd britannique intitulé "Un homme blanc appelle les flics contre des hommes noirs à la Marina", l'algorithme de reconnaissance d'images du réseau social a demandé à ses utilisateurs s'ils souhaitaient voir d'autres "vidéos sur les primates", avec les options "Oui" ou "Rejeter" affichées à l'écran.

Révélée par le New York Times, l'affaire a déclenché une enquête interne chez Facebook pour comprendre comment une telle erreur a pu se produire. Le réseau social a désactivé son outil de recommandation et présenté ses excuses dans la presse. "C'est clairement une erreur inacceptable", a réagi une porte-parole de Facebook, sollicitée par l'AFP. 

Les algorithmes sont biaisés

L'incident met à nouveau en lumière les limites des algorithmes d'intelligence artificielle. Ces technologies sont utilisées par Facebook pour personnaliser le fil d'actualité de chacun de ses plus de 2 milliards d'utilisateurs mensuels mais aussi pour modérer les contenus, détecter et bloquer les messages problématiques. 

Des études ont montré que ces technologies sont nécessairement discriminantes car elles reflètent les biais de leurs concepteurs et de la société mais aussi ceux des systèmes de données utilisés pour les entraîner. 

À lire aussi

Aux États-Unis, par exemple, les systèmes d'intelligence artificielle utilisés par la police ou la justice pour prédire le risque de récidive ou la survenance des crimes se sont avérés racistes envers les populations noires et latinos. Un biais raciste a empêché des millions de personnes noires d'accéder à des soins de santé optimaux. Des chercheurs ont aussi découvert que les voitures autonomes ont plus de mal à éviter les piétons de couleur que les personnes blanches.

Malgré toute leur bonne volonté, les plateformes sociales sont régulièrement prises en défaut dans ce domaine. En 2015, le logiciel de reconnaissance photo de Google avait confondu deux personnes afro-américaines avec des gorillesTwitter a été épinglé l'an passé pour un algorithme mettant davantage en avant les visages de personnes blanches que ceux des personnes noires. 

La rédaction vous recommande
À écouter aussi

L’actualité par la rédaction de RTL dans votre boîte mail.

Grâce à votre compte RTL abonnez-vous à la newsletter RTL info pour suivre toute l'actualité au quotidien

S’abonner à la Newsletter RTL Info
En Direct
/

Bienvenue sur RTL

Ne manquez rien de l'actualité en activant les notifications sur votre navigateur

Cliquez sur “Autoriser” pour poursuivre votre navigation en recevant des notifications. Vous recevrez ponctuellement sous forme de notifciation des actualités RTL. Pour vous désabonner, modifier vos préférences, rendez-vous à tout moment dans le centre de notification de votre équipement.

Bienvenue sur RTL

Rejoignez la communauté RTL, RTL2 et Fun Radio pour profiter du meilleur de la radio

Je crée mon compte