3 min de lecture Connecté

Google n'utilisera pas l'intelligence artificielle pour fabriquer des armes

Sundar Pichai, le patron du géant américain, a énuméré une série de principes éthiques après le tollé suscité par la collaboration de Google avec le Pentagone.

Le logo de Google sur un smartphone
Le logo de Google sur un smartphone Crédit : LOIC VENANCE / AFP
Félix Roudaut
Félix Roudaut
et AFP

Cela méritait d'être dit. Google s'est engagé jeudi 7 juin à ce que ses travaux en matière d'intelligence artificielle (IA) ne servent pas à concevoir des armes. Un principe éthique parmi d'autres réaffirmé par le groupe après un tollé suscité par sa collaboration avec le Pentagone. "Nous avons conscience qu'une technologie aussi puissante soulève aussi d'importantes questions à propos de son usage", a écrit sur le blog de la firme le numéro un Sundar Pichai, en énumérant une série de principes sur l'usage de l'intelligence artificielle.

Google fait face depuis plusieurs semaines à une fronde de milliers d'employés, furieux de le voir travailler avec le Pentagone pour aider les drones à mieux distinguer les objets des humains grâce à l'intelligence artificielle. Sous la pression, le géant américain a finalement décidé vendredi 1er juin de ne pas renouveler ce contrat avec le ministère de la Défense lors de son arrivée à échéance en 2019, selon la presse américaine.

"Commerce de la guerre"

Plus de 4.000 employés ont signé une pétition demandant à Sundar Pichai de rester en dehors du "commerce de la guerre". "Nous demandons que le projet Maven (avec le ministère de la Défense, NDLR) soit annulé et que Google rédige, rende publique et mette en œuvre une politique claire disant que Google ou ses sous-traitants ne construiront jamais de technologie de guerre", exige aussi la pétition.

Pour des ONG comme l'Electronic Frontier Foundation (EFF) et le Comité international pour le contrôle des armes-robots (ICRAC), qui ont soutenu les pétitionnaires, l'apport de l'intelligence artificielle ouvre la voie à terme à la suppression de toute intervention humaine dans les missions des drones, posant selon elles un problème éthique majeur. L'armée américaine, comme d'autres pays, utilise des drones (commandés à distance par des humains) pour des missions de reconnaissance, de renseignement ou procéder à des bombardements, en Afghanistan par exemple.

L'EFF salue "une grosse victoire"

À lire aussi
Le Galaxy Note 10 profite d'un format plus compact que son prédécesseur Connecté
Le Galaxy Note 10 est disponible : faut-il craquer pour le dernier né de Samsung ?

Des voix, comme celle du médiatique patron de Tesla et SpaceX Elon Musk ou encore l'ONU, mettent régulièrement en garde contre les usages abusifs de l'intelligence artificielle, craignant notamment l'avènement d'armes autonomes, ou "robots-tueurs". Dans un tweet jeudi, l'EFF a salué la décision de Google, évoquant "une grosse victoire pour les principes d'une IA éthique".

Google, comme d'autres entreprises technologiques, fait déjà partie de groupements comme "Partnership on Artificial Intelligence" promettant des usages éthiques de l'IA, mais les principes énoncés jeudi sont plus précis. M. Pichai promet que les travaux sur l'IA seraient uniquement conçus pour des usages qui sont "positifs pour la société" et tiendraient compte des principes de respect de la vie privée. Le groupe rejette ainsi toute technologie "qui entraîne ou est susceptible de causer du mal", c'est-à-dire non seulement les armes mais aussi "les autres technologies dont le but principal est de causer ou de faciliter directement des blessures".

"Nous continuerons nos travaux avec des gouvernements"

Il cite encore des systèmes "qui collectent ou utilisent des informations pour (faire de la) surveillance enfreignant les normes acceptées de façon internationale" - mais sans préciser quelles sont ces normes - de même que les "technologies dont les principes sont contraires aux règles (...) du droit international et des droits de l'Homme".

Pour autant, prend soin de prudemment préciser M. Pichai, "si nous refusons de développer l'intelligence artificielle pour des armes, nous continuerons nos travaux avec des gouvernements et l'armée dans beaucoup d'autres domaines", comme la cyber-sécurité, la formation, le recrutement militaire, la santé des anciens combattants ou encore les missions de sauvetage. "Ces collaborations sont importantes", a ajouté le patron de Google.

Le groupe marche sur des œufs sur ce sujet car il est, comme Microsoft ou Amazon notamment, sur les rangs pour remporter un énorme contrat de plusieurs milliards de dollars avec le gouvernement américain, dont le Pentagone, qui souhaite recourir au "cloud" informatique.

La rédaction vous recommande
Lire la suite
Connecté Intelligence artificielle Google
Restez informé
Commentaires

Afin d'assurer la sécurité et la qualité de ce site, nous vous demandons de vous identifier pour laisser vos commentaires. Cette inscription sera valable sur le site RTL.fr.

Connectez-vous Inscrivez-vous

500 caractères restants

fermer
Signaler un abus
Signaler le commentaire suivant comme abusif
500 caractères restants
article
7793676368
Google n'utilisera pas l'intelligence artificielle pour fabriquer des armes
Google n'utilisera pas l'intelligence artificielle pour fabriquer des armes
Sundar Pichai, le patron du géant américain, a énuméré une série de principes éthiques après le tollé suscité par la collaboration de Google avec le Pentagone.
https://www.rtl.fr/actu/futur/google-n-utilisera-pas-l-intelligence-artificielle-pour-fabriquer-des-armes-7793676368
2018-06-08 01:32:00
https://cdn-media.rtl.fr/cache/DxPQwZ6joCRfVvn-WX_3-g/330v220-2/online/image/2017/0808/7789651023_une-note-interne-de-google-diffusait-des-propos-sexistes.jpg