4 min de lecture Connecté

En Estonie, une intelligence artificielle va bientôt rendre la justice

Une intelligence artificielle développée par le gouvernement estonien pourra rendre des jugements autonomes dans des délits mineurs afin d'alléger la charge de travail des juges. Le recours aux algorithmes dans la sphère judiciaire soulève des questions éthiques.

Le tribunal correctionnel de Paris (illustration justice)
Le tribunal correctionnel de Paris (illustration justice) Crédit : JOEL SAGET / AFP
Benjamin Hue
Benjamin Hue
Journaliste RTL

Malgré ses 1,3 millions d'habitants, l'Estonie est l'une des nations les plus avancées en matière de technologie. Pour sonner le glas de la bureaucratie lors de sa sortie du bloc soviétique au début des années 90, le pays a fait le pari du numérique et fait aujourd'hui figure de modèle avec son réseau de transports intelligents, ses services administratifs dématérialisés, ses ordonnances médicales en ligne et son système de e-citoyenneté.

Classée première société numérique au monde par le magazine Wired en 2017, l'Estonie est en passe de franchir un nouveau palier dans le solutionnisme technologique en confiant l'arbitrage de certaines affaires judiciaires à une intelligence artificielle, rapporte le magazine Wired.

Depuis 2017, le gouvernement estonien pilote un projet visant à introduire l'intelligence artificielle et l'apprentissage automatique dans divers ministères afin de rationaliser les services offerts aux résidents. Au Pôle Emploi local, des calculs de machine learning se chargent par exemple de mettre en relation des demandeurs d'emploi avec les jobs les plus adaptés à leur profil sur la base des informations de leurs CV. Les algorithmes ont aussi remplacé les inspecteurs pour vérifier si les agriculteurs subventionnés respectent les règles locales. Cela aurait permis au pays d'économiser plus d'un million de dollars dès la première année.

Le gouvernement a désormais l'ambition d'introduire l'intelligence artificielle dans son appareil judiciaire. Ott Velsberg, un étudiant estonien de 28 ans, a été engagé par les autorités pour superviser la conception d'un juge-robot dont la mission sera de rendre la justice de façon autonome dans les affaires de délits mineurs, dont les dommages sont inférieurs à 7.000 euros. L'objectif est d'alléger la charge de travail des juges et des greffiers en automatisant le traitement des petits litiges. 

À lire aussi
Le palais de l'Élysée en novembre 2018 (illustration) Coronavirus France
Coronavirus : pourquoi des influenceurs sont invités à l'Élysée mercredi ?

Le robot-juge s'appuiera sur un corpus de textes légaux et l'analyse des données propres à chaque affaire. Les deux parties du litige devront ainsi renseigner leurs informations personnelles, leurs allégations et tous les documents susceptibles de faire pencher la balance sur une plateforme en ligne afin de nourrir les algorithmes du programme. Le projet en est encore à ses prémices et devrait être lancé plus tard dans l'année. De nombreux détails restent à régler, selon Wired, et le système devra sans doute être ajusté par des avocats et des juges.

Aux États-Unis, un logiciel coupable de biais racistes

L'Estonie est bien partie pour devenir la première nation à confier un pouvoir décisionnel judiciaire à un algorithme. Mais elle n'est pas la première à mêler l'intelligence artificielle et la loi. Aux Etats-Unis, le logiciel COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) aide les juges à prononcer leurs verdicts dans de nombreuses juridictions.

L'outil se base sur les réponses à une série de 137 questions sur le genre, l'environnement marital, familial, amical, éducatif et les infractions passées d'un prévenu pour évaluer son risque de récidive et fournir une recommandation que le juge est libre de suivre ou non. Le système COMPAS a obtenu des résultats contrastés. S'il a permis d'accélérer l'exécution des décisions, il s'est aussi et surtout avéré peu efficace.

Une enquête menée par le média d'investigation américain ProPublica en 2016 a montré que seules 20% des personnes dont le programme estimait qu'elles commettraient un crime violent ont finalement récidivé. "Pour l'ensemble des crimes et des délits, le logiciel s'est avéré légèrement plus efficace qu'un pile ou face", observe le média. Pire, le logiciel s'est rendu coupable de biais racistes en reproduisant des discriminations subies par certaines populations.

Il a largement surévalué le risque de récidive des Afro-Américains, qui se sont vus attribuer un risque de récidive moyen ou important deux fois plus important que les Blancs, pour lesquels le risque était finalement sous-estimé. Une étude du CNRS a démontré que les personnes les plus touchées par les contrôles de police sont issues de minorités.

La probabilité que cela engendre des arrestations est donc mécaniquement plus importante. Les détracteurs de COMPAS soulignent aussi l'opacité de la programmation de l'algorithme, l'entreprise à l'origine de sa conception refusant de révéler sa formule et la prépondérance des critères utilisés.

Des premiers tests mitigés en France

La France s'essaie aussi à la justice prédictive. Le barreau de Lille teste les outils de la société Prédictice qui permet d'analyser des millions de décisions de justice déjà rendues en un clic pour simuler les chances de succès d'une procédure, la peine encourue ou le montant d'indemnités potentielles. Des magistrats des cours d'appel de Douai et de Rennes les ont aussi essayés plusieurs mois en 2017 sans être convaincus.

Interrogé par RTL à l'époque de l'expérimentation, Antoine Garapon, magistrat et secrétaire général de l'Institut des Hautes Études sur la Justice, exprimait ses craintes de voir ce type de logiciel générer de fausses attentes et fausser le comportements des justiciables et des juges. "Les juges vont se dire 'si c'est ça le résultat, et bien moi je me conforme au résultat, et je n'aurai pas de problème'. Cela risque de favoriser un comportement moutonnier". 

Avec la mise en ligne annoncée de centaines de milliers de décision de justice dans le cadre du big data judiciaire, des voix s'élèvent pour encadrer la justice prédictive. Début janvier, le Conseil de l'Europe a publié la première charge éthique européenne sur l'utilisation de l'IA dans les systèmes judiciaires. Ce premier texte continental énonce des principes éthiques à destination des acteurs publics et privés impliqués dans la conception et le déploiement d'outils utilisant des algorithmes pour traiter des données judiciaires.

Il rappelle que l'intelligence artificielle est limitée, que les algorithmes ne sont jamais neutres et qu'ils peuvent engendrer des discriminations et encourage une utilisation positive de l'IA qui garantisse le respect des droits des justiciables, la protection des données et le droit à un procès équitable.

La rédaction vous recommande
Lire la suite
Connecté Justice Intelligence artificielle
Commentaires

Afin d'assurer la sécurité et la qualité de ce site, nous vous demandons de vous identifier pour laisser vos commentaires. Cette inscription sera valable sur le site RTL.fr.

Connectez-vous Inscrivez-vous

500 caractères restants

fermer
Signaler un abus
Signaler le commentaire suivant comme abusif
500 caractères restants