4 min de lecture Perché

Faut-il interdire les robots tueurs ?

DÉCRYPTAGE - Le développement des armes létales autonomes, dénoncé lundi 27 juillet dans une lettre ouverte à l'écho planétaire signée par plusieurs milliers de scientifiques, soulève des questions juridiques et éthiques.

Un faux "robot tueur" lors du lancement d'une campagne contre les armes entièrement autonomes à Londres, en 2013
Un faux "robot tueur" lors du lancement d'une campagne contre les armes entièrement autonomes à Londres, en 2013 Crédit : AFP
BenjaminHuepro
Benjamin Hue
Journaliste RTL

Aux confins du réel et de la science-fiction, elles pourraient révolutionner notre manière de faire la guerre au même titre que l'invention de l'arme à feu et de la bombe nucléaire. L'ère des armes létales autonomes, communément appelées "killer robots" ou "robots tueurs" par leurs opposants, n'est pas encore venue mais le débat qui les entoure est déjà bien réel. Dans une pétition signée, entre autres, par l'astrophysicien britannique Stephen Hawking et le cofondateur d'Apple, Steve Wozniak, plusieurs milliers de chercheurs et personnalités lancent un appel pour leur interdiction. Les signataires, en majorité des chercheurs en robotique et en intelligence artificielle, dénoncent un danger imminent et s'inquiètent des risques de bavures et d'usages terroristes que fait planer le développement de cette technologie.

Elles peuvent être utilisées pour le bien ou le mal

À l'heure actuelle, des dispositifs autonomes sont déjà utilisés, essentiellement comme systèmes de défense. Ils sont cependant toujours en lien avec un opérateur humain, souvent situé à des centaines de kilomètres, dans la chaîne de commandement. Équipés de capteurs et de caméras, armés de mitrailleuses et de lance-grenades, les robots chargés de surveiller la zone démilitarisée à la frontière entre les deux Corée en constituent l'exemple le plus avancé. Dans une moindre mesure, les mines et les missiles de croisière sont aussi des armes autonomes. Elles ne choisissent toutefois pas leur cible. Dans leur lettre publiée lundi en marge de la Conférence internationale sur l'intelligence artificielle, les chercheurs expliquent que grâce aux progrès de la science, des armes létales pourront passer outre l'intervention humaine pour détecter et déclencher le tir sur un point chaud, "non dans les décennies mais dans les années à venir".

Professeur d'Intelligence artificielle à l'Université New South Wales, en Australie et signataire de l'acte, Tony Walsh rappelle que "toutes les technologies peuvent être utilisées pour le bien ou pour le mal". D'un point de vue militaire, ces armes autonomes présentent plusieurs avantages en terme de coûts humain et moral. Elles réduisent le risque de pertes humaines sur le champ de bataille et peuvent s'acquitter sans rechigner des tâches sales, sans intérêt ou dangereuses. "Elles abaissent aussi le coût d'un engagement au combat", écrivent les chercheurs, qui y voient le signe d'une nouvelle course aux armements. "Contrairement aux armes nucléaires, elles ne nécessitent pas de coûteux investissements ou des matières premières difficiles à obtenir". Avec le risque qu'elles "apparaissent sur le marché noir" et tombent entre de mauvaises mains, celles "de terroristes, de dictateurs et de seigneurs de la guerre voulant perpétrer un nettoyage ethnique". 

À lire aussi
Le président américain Donald Trump espace
États-Unis : Donald Trump veut renvoyer des hommes sur la Lune

Des mécanismes de responsabilité légale inadaptés

Ces menaces sont prises au sérieux par l'ONU et les défenseurs des droits de l'Homme. Dès 2012, Human Rights Watch lançait le débat public à la faveur d'un rapport, Une arme inhumaine, les arguments contre les robots tueurs. L'ONG appelait à l'élaboration d'un traité international pour interdire leur développement et demandait aux États d'édicter des lois visant à empêcher leur mise au point et utilisation à l'échelon national. Porté par plusieurs ONG, dont Amnesty International, ce combat a passé les portes de l'ONU au mois d'avril, où deux réunions d'experts se sont tenues à Genève dans le cadre de la Convention sur les armes classiques. Le rapporteur spécial de l'ONU plaide depuis plus de deux ans pour un moratoire sur le développement de ces systèmes, en attendant un cadre juridique adapté, précise Le Monde

Aucun État n'a encore signifié de façon officielle sa volonté d'acquérir ce genre de système. La perspective de voir de telles machines débarquer sur les champs de bataille soulève toutefois des questions éthiques et juridiques. Peut-on laisser des robots décider de tuer alors que leurs concepteurs ne peuvent pas garantir à 100% qu'il n'existe pas de risque de confusion entre civils et soldats ? Comment adapter les conventions internationales sur les conflits pour les encadrer ? Certains spécialistes suggèrent d'intégrer dans le noyau des armes autonomes une sorte de logiciel éthique qui veillerait au respect du droit international et humanitaire. Un ouvrage monumental qui ne serait pas nécessairement suffisant pour réduire à néant la marge d'erreur et répondre à toutes les interrogations.

Comment établir, par exemple, la responsabilité face à une bavure ou à un crime de guerre ? Dans son dernier rapport sur le sujet, publié quelques jours avant la réunion de l'ONU au mois d'avril, Human Rights Watch estime que "l'absence de responsabilité légale équivaut à l'absence de dissuasion de futurs crimes, à l'absence de justice pour les victimes et à l'absence de condamnation par la société des utilisateurs de ses armes" et demande à nouveau un moratoire sur la mise au point, la fabrication et l'utilisation des armes entièrement autonomes. Une telle interdiction ne serait pas sans précédent. Il y a 17 ans, les lasers aveuglants ont été prohibés. Ce qui ne les a pas empêchés d'être ensuite développés à grande échelle.

La rédaction vous recommande
Lire la suite
Perché Sciences Armes
Restez informé
Commentaires

Afin d'assurer la sécurité et la qualité de ce site, nous vous demandons de vous identifier pour laisser vos commentaires. Cette inscription sera valable sur le site RTL.fr.

Connectez-vous Inscrivez-vous

500 caractères restants

fermer
Signaler un abus
Signaler le commentaire suivant comme abusif
500 caractères restants
article
7779254523
Faut-il interdire les robots tueurs ?
Faut-il interdire les robots tueurs ?
DÉCRYPTAGE - Le développement des armes létales autonomes, dénoncé lundi 27 juillet dans une lettre ouverte à l'écho planétaire signée par plusieurs milliers de scientifiques, soulève des questions juridiques et éthiques.
http://www.rtl.fr/actu/futur/robots-tueurs-cibles-programmees-course-armement-derive-terroriste-faut-il-interdire-les-armes-letales-autonomes-7779254523
2015-07-30 10:00:00
http://media.rtl.fr/cache/BkjtA-apBK57IciysG4_4w/330v220-2/online/image/2015/0729/7779257837_un-faux-robot-tueur-lors-du-lancement-d-une-campagne-contre-les-armes-entierement-autonomes-a-londres-en-2013.jpg