1. Accueil
  2. Actu
  3. Tech
  4. L'expérimentation de la vidéosurveillance algorithmique sera-t-elle prolongée de 2 années supplémentaires ?
4 min de lecture

L'expérimentation de la vidéosurveillance algorithmique sera-t-elle prolongée de 2 années supplémentaires ?

Censée se terminer fin mars, l'expérimentation de la vidéosurveillance algorithmique vient d'être prolongée jusqu'en mars 2027 dans le cadre de la loi relative à la sûreté dans les transports, en dépit de résultats contrastés. Mais des députés ont saisi le Conseil constitutionnel pour contester un cavalier législatif.

Des caméras de vidéosurveillance. (Illustration)
Crédit : Fred TANNEAU / AFP
331. JO Paris 2024 : pourquoi la vidéosurveillance automatisée suscite l'inquiétude
00:17:14
VIDÉOSURVEILLANCE - Dominique Legrand est l'invité de RTL Soir
00:10:05
JO PARIS 2024 - Des caméras de vidéosurveillance, utilisant l'IA, prochainement testées
00:01:31
Benjamin Hue
Je m'abonne à la newsletter « Infos »

Malgré un premier bilan en demi-teinte, l’expérimentation de la vidéosurveillance algorithmique dans l’espace public est appelée à se poursuivre. Prévue pour s’achever le 31 mars, l’autorisation temporaire du dispositif a finalement été prolongée de deux années supplémentaires. Cette décision a été intégrée à la proposition de loi relative à la sécurité dans les transports, adoptée le 18 mars dernier, afin de permettre, notamment, à la RATP et à la SNCF de continuer à utiliser ces outils. Le gouvernement n’a jamais caché sa volonté d’étendre l’expérimentation, affirmant à plusieurs reprises qu’il souhaitait évaluer sur le long terme l’utilité opérationnelle de cette technologie censée appuyer les forces de l’ordre, en particulier lors de grands événements.

Le principe de la vidéosurveillance algorithmique repose sur l’analyse en temps réel des images captées par les caméras de surveillance, grâce à des logiciels capables de repérer des comportements jugés suspects ou à risque. Ces algorithmes sont conçus pour détecter certaines situations définies par la loi : mouvements de foule, chutes, colis abandonnés, départs d’incendie, franchissements de zones interdites, circulation à contresens de personnes ou de véhicules. Les alertes remontées sont systématiquement soumises à la validation d’un agent humain qui décide, ou non, d'une intervention éventuelle. Les textes encadrant l’expérimentation excluent explicitement l’usage de technologies de reconnaissance faciale.

Jusqu’ici, l’utilisation de ces dispositifs était autorisée dans le cadre limité fixé par la loi de mai 2023, en prévision des Jeux olympiques et paralympiques de Paris 2024. Près de 500 caméras avaient alors été équipées d’algorithmes de VSA pour sécuriser non seulement les compétitions sportives, mais aussi des manifestations culturelles ou récréatives jugées particulièrement exposées aux risques d’attentats ou d’atteintes graves à la sûreté publique. Le dispositif a ainsi été déployé lors du tournoi de Roland-Garros, ainsi qu’à l’occasion de concerts majeurs, comme ceux de Taylor Swift, des Black Eyed Peas ou de Depeche Mode.

Des retours d'expérience mitigés

Ces expérimentations n’ont pas manqué de susciter des critiques. Plusieurs associations ont dénoncé le flou entourant les conditions d’évaluation, le manque de transparence sur les données collectées, ainsi que les risques potentiels pour les libertés publiques. Elles pointaient aussi le biais initial de l’expérimentation, estimant que les autorités affichaient dès le départ leur intention de pérenniser la technologie, rendant illusoire tout débat contradictoire.

À écouter aussi


Sur le plan technique, le rapport piloté par le haut fonctionnaire Christian Vigouroux, rendu public en février dernier, a dressé lui aussi un constat nuancé. Il souligne que plusieurs scénarios prévus par les textes n’ont pas pu être véritablement testés sur le terrain, notamment la détection de départs de feu, de chutes ou encore d’armes à feu. Certains cas d’usage se sont révélés peu concluants : la détection de bagages abandonnés, par exemple, a parfois conduit les algorithmes à confondre des sans-abris avec du mobilier urbain, illustrant les limites actuelles de la technologie.

Deux députés, qui se sont penchés sur le bilan sécuritaire des JO de Paris, ont également estimé que l'expérimentation de la VSA n'avait pas été concluante lors de l'événement. Eric Martineau (Les Démocrates) et Stéphane Peu (Gauche démocrate et républicaine), rapporteurs de la mission d'information flash de l'Assemblée nationale sur le bilan sécuritaire des JO 2024, ont souligné que le déploiement massif des forces de l'ordre dans les rues avait rendu le dispositif sans "utilité concrète". Sans se prononcer sur l'abandon ou la pérennisation du dispositif, ils plaident pour continuer les expérimentations dans des contextes différents, en élargissant les scénarios à d'autres lieux exposés à un risque de terrorisme, tout en appelant à un débat public sur ses avantages et ses dérives potentielles.

Des députés dénoncent un cavalier législatif

Malgré ces retours d’expérience contrastés, le gouvernement a choisi de maintenir le cap et de prolonger l’expérimentation. Inscrit dans la loi sur le renforcement de la sûreté dans les transports, le dispositif a été adopté le 18 mars par les députés, offrant aux entreprises concernées deux années supplémentaires pour démontrer la pertinence de leurs solutions dans l’espace public. 

Mais ce vote ne scelle pas encore définitivement le sort de l’expérimentation. Considérant que cet amendement gouvernemental relève du cavalier législatif, c'est-à-dire une disposition qui n'a pas de lien direct avec un texte de loi qui concerne seulement les transports, le groupe LFI à l’Assemblée nationale ainsi que le député MoDem Philippe Latombe ont décidé de porter l’affaire devant le Conseil constitutionnel, rapporte La Tribune. "Le Conseil constitutionnel a le pouvoir de rejeter tout amendement qu'il identifierait comme étant un cavalier législatif. Il pourrait donc censurer l’article qui demande la prolongation de la VSA telle qu’autorisée par la loi JO, comme récemment sur la loi asile & immigration", observe Amnesty International. Charge désormais aux Sages de se prononcer sur la conformité du texte et de décider si l’expérience pourra effectivement se poursuivre dans ces conditions. 

La rédaction vous recommande

L’actualité par la rédaction de RTL dans votre boîte mail.

Grâce à votre compte RTL abonnez-vous à la newsletter RTL info pour suivre toute l'actualité au quotidien

S’abonner à la Newsletter RTL Info
En Direct
/

Bienvenue sur RTL

Ne manquez rien de l'actualité en activant les notifications sur votre navigateur

Cliquez sur “Autoriser” pour poursuivre votre navigation en recevant des notifications. Vous recevrez ponctuellement sous forme de notifciation des actualités RTL. Pour vous désabonner, modifier vos préférences, rendez-vous à tout moment dans le centre de notification de votre équipement.

Bienvenue sur RTL

Rejoignez la communauté RTL, RTL2 et Fun Radio pour profiter du meilleur de la radio

Je crée mon compte