1. Accueil
  2. Actu
  3. Tech
  4. Intelligence artificielle : Elon Musk et des centaines d'experts alertent sur "des risques majeurs pour l'humanité"
2 min de lecture

Intelligence artificielle : Elon Musk et des centaines d'experts alertent sur "des risques majeurs pour l'humanité"

Des grandes pointures mondiales des technologies appellent à une pause de six mois dans le développement des intelligences artificielles, jusqu'à la mise en place de systèmes de sécurité.

Elon Musk, le nouveau patron de Twitter, le 29 novembre 2019
Elon Musk, le nouveau patron de Twitter, le 29 novembre 2019
Crédit : FREDERIC J. BROWN / AFP
Angéline Da Costa & AFP

"La super-intelligence n'est pas nécessairement inévitable, ni impossible". Alors que la course au développement d'intelligences artificielles puissantes s'accélère, surpassant même les capacités de Chat-GPT, Elon Musk et des centaines d'experts mondiaux réclament "une pause de six mois". Publié sur le site consacré à la technologie, futureoflife.org, qui informe sur les bienfaits et les limites de telles avances, la pétition évoque "des risques majeurs pour l'humanité". 

Ils réclament un moratoire jusqu'à la mise en place de systèmes de sécurité, dont de nouvelles autorités réglementaires dédiées, la surveillance des systèmes d'IA, des techniques pour aider à distinguer le réel de l'artificiel et des institutions capables de gérer les "perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l'IA provoquera". 

La pétition réunit des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l'être humain, dont Elon Musk, propriétaire de Twitter et fondateur de SpaceX et de Tesla, et Yuval Noah Harari, l'auteur de Sapiens.  

Également signataire, Yoshua Bengio, pionnier canadien de l'IA, a exprimé ses préoccupations, lors d'une conférence de presse virtuelle à Montréal: "je ne pense pas que la société est prête à faire face à cette puissance-là, au potentiel de manipulation par exemple des populations qui pourrait mettre en danger les démocraties". "Il faut donc prendre le temps de ralentir cette course commerciale qui est en route", a-t-il ajouté, appelant à discuter de ces enjeux au niveau mondial, "comme nous l'avons fait pour l'énergie et les armes nucléaires". 

Des "risques majeurs pour l'humanité"

À lire aussi

Sam Altman, patron d'OpenAI, concepteur de chatGPT, a lui-même reconnu être "un petit peu effrayé" par sa création si elle était utilisée pour de "la désinformation à grande échelle ou des cyberattaques".  "La société a besoin de temps pour s'adapter", avait-il déclaré à ABCNews mi-mars. "Ces derniers mois ont vu les laboratoires d'IA s'enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne - pas même leurs créateurs - ne peut comprendre, prédire ou contrôler de manière fiable", estiment-ils. 

"Devons-nous laisser les machines inonder nos canaux d'information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, nous rendre obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus", concluent-ils. 

Les signataires comprennent aussi le cofondateur d'Apple Steve Wozniak, des membres du laboratoire d'IA de Google DeepMind, le patron de Stability AI Emad Mostaque, concurrent d'OpenAI, ainsi que des experts en IA et universitaires américains, ingénieurs cadres de Microsoft, groupe allié de OpenAI. 

La rédaction vous recommande
À écouter aussi

L’actualité par la rédaction de RTL dans votre boîte mail.

Grâce à votre compte RTL abonnez-vous à la newsletter RTL info pour suivre toute l'actualité au quotidien

S’abonner à la Newsletter RTL Info

Commentaires

Afin d'assurer la sécurité et la qualité de ce site, nous vo