1. Accueil
  2. Actu
  3. Tech
  4. Biométrie : la Défenseure des droits alerte sur les "risques considérables"
3 min de lecture

Biométrie : la Défenseure des droits alerte sur les "risques considérables"

Selon un rapport publié mardi 20 juin, la biométrie, "particulièrement intrusive" pourrait porter atteinte "aux droits fondamentaux".

Claire Hédon, le 20 juillet 2020
Claire Hédon, le 20 juillet 2020
Crédit : JOEL SAGET / AFP
Florine Boukhelifa & AFP

Elle réclame un meilleur encadrement de ces dispositifs. Face à l'essor des technologies biométriques, la Défenseure des droits s'alarme dans un rapport publié mardi 20 juillet des "risques considérables" qu'elles comportent. "Les avancées que permettent les technologies biométriques ne sauraient s'effectuer ni au détriment d'une partie de la population, ni au prix d'une surveillance généralisée", avertit cette autorité indépendante, dirigée par Claire Hédon.

Réaliser une transaction grâce à ses empreintes digitales, identifier automatiquement un suspect dans une foule, cibler la publicité adressée à quelqu'un en fonction de son apparence physique... Depuis plusieurs années, ces technologies qui visent à authentifier ou identifier une personne, voire à évaluer sa personnalité, en analysant ses données biométriques comme les traits du visage, la voix ou les caractéristiques comportementales, se généralisent. Mais elles sont "particulièrement intrusives" et présentent des "risques considérables d'atteinte aux droits fondamentaux", selon le rapport.

Elles exposent d'abord à "une faille de sécurité aux conséquences particulièrement graves", explique la Défenseure des droits. Si un mot de passe peut être modifié après un piratage, impossible en revanche de changer d'empreintes digitales lorsqu'elles ont été volées dans une base de données. De quoi mettre "en danger l'anonymat dans l'espace public en permettant une forme de surveillance généralisée", selon l'institution.

La biométrie, une technologie non sans faille

Les enjeux dépassent largement la seule protection de la vie privée et les angles morts du règlement général sur la protection des données (RGPD), imposé par l'Europe depuis 2018. Le rapport pointe ainsi le "potentiel inégalé d'amplification et d'automatisation des discriminations" des technologies biométriques, car leur essor est étroitement lié aux algorithmes d'apprentissage, sur lesquels elles s'appuient. Sous leur apparente neutralité mathématique, ils peuvent comporter de nombreux biais discriminatoires, déjà soulignés en 2020 par le Défenseur des droits et la Commission nationale de l'informatique et des libertés (Cnil) dans un rapport conjoint.

À lire aussi

Le document publié mardi rappelle les faiblesses des intelligences artificielles, conçues par des humains susceptibles de leur transmettre leurs stéréotypes, en constituant des bases de données inconsciemment biaisées. Des recherches ont ainsi montré que certains systèmes de reconnaissance faciale avaient plus de difficultés à identifier les femmes et les personnes non blanches, car leur algorithme fonctionnait à partir de données majoritairement constituées de visages masculins et blancs. "Aux États-Unis, trois hommes noirs ont ainsi déjà été emprisonnés injustement suite aux erreurs de systèmes de reconnaissance faciale", rappelle le rapport.

Sécurité, ressources humaines, éducation... Les domaines concernés sont nombreux. Certaines entreprises de recrutement commercialisent par exemple déjà des logiciels assignant des scores aux candidats lors d'un entretien d'embauche. Et ce alors même que ces technologies visant à évaluer les émotions "commettent de nombreuses erreurs" et bafouent le droit du travail.

L'évaluation des émotions sur la sellette

Le document pointe également "l'effet dissuasif" des technologies biométriques. Par exemple, chacun se sentirait-il libre de manifester si des drones avec reconnaissance faciale survolent les cortèges ?

Pour un meilleur encadrement, la Défenseure des droits formule plusieurs recommandations. Elle appelle d'abord tous les acteurs, privés comme publics, à écarter les technologies d'évaluation des émotions. En matière de police et de justice, l'institution estime que "le recours à l'identification biométrique ne saurait concerner tout type d'infraction". Selon elle, la reconnaissance faciale, déjà interdite par le Conseil constitutionnel pour les drones policiers, devrait également l'être pour d'autres dispositifs comme la vidéosurveillance ou les caméras piétons.

Fin juin, le contrôleur européen de la protection des données (CEPD), autre autorité indépendante dont l'avis reste consultatif, réclamait lui l'interdiction totale des systèmes de reconnaissance automatisée des individus dans les lieux publics.

La Défenseure des droits appelle enfin à "repenser les contrôles" de ces technologies, notamment en imposant un "audit externe et indépendant" des dispositifs d'identification biométrique, et en instaurant un contrôle régulier des effets des algorithmes, "sur le modèle du contrôle des effets indésirables des médicaments".

La rédaction vous recommande

Commentaires

Afin d'assurer la sécurité et la qualité de ce site, nous vous demandons de vous identifier pour laisser vos commentaires.
Cette inscription sera valable sur le site RTL.fr.

Signaler un commentaire

En Direct
/