3 min de lecture
Une image prise en 1971 montrant un essai nucléaire français à Moruroa en Polynésie française
Crédit : HANDOUT / AFP
Je m'abonne à la newsletter « Infos »
Une série d’expériences menées au Royaume-Uni relance le débat sur la place de l’intelligence artificielle dans les décisions militaires les plus sensibles. En simulant des crises internationales majeures entre plusieurs modèles d’IA avancés, des chercheurs ont observé une propension marquée à l’escalade de la violence jusqu’au recours à l’arme nucléaire.
Le projet a été dirigé par Kenneth Payne, spécialiste des questions de sécurité au King’s College London. Son équipe a opposé trois grands modèles de langage, GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash, dans des scénarios de crise internationale. Les situations imaginées étaient volontairement tendues : conflits frontaliers, compétition pour des ressources stratégiques, menaces directes contre la survie d’un régime.
Les modèles disposaient d’un éventail d’options graduées, allant de la désescalade diplomatique à l’usage d’armes nucléaires tactiques, voire à la guerre nucléaire à grande échelle. Chaque IA devait justifier ses choix, produisant au total des centaines de milliers de mots d’argumentation stratégique.
Le résultat le plus troublant de cette expérience réside dans la fréquence du recours au nucléaire. Dans 95% des simulations, au moins une arme nucléaire tactique a été employée. Autre élément troublant : aucune IA n'a choisi de capituler totalement, même lorsqu'elle se trouvait dans une position défavorable. Les stratégies employées par les intelligences artificielles privilégiaient presque toute la pression, la riposte ou l'intensification graduelle du conflit plutôt qu'un retrait complet.
"Le tabou nucléaire ne semble pas avoir autant d’impact sur les machines que sur les humains", explique Kenneth Payne. Là où un dirigeant politique perçoit le poids moral, historique et civilisationnel d’une telle décision, l’IA raisonne en termes d’optimisation stratégique.
"Du point de vue des risques nucléaires, ces conclusions sont inquiétantes", estime James Johnson, de l’Université d’Aberdeen, interrogé par le magazine scientifique New Scientist.
L’expérience ne révèle pas seulement une forte tendance à l’escalade. Elle met aussi en lumière des erreurs d’interprétation et des effets d’emballement. Dans de nombreux cas, une action produisait des conséquences plus graves que celles anticipées par le modèle lui-même. Autrement dit, l’IA déclenchait une dynamique qu’elle n’avait pas entièrement prévue. Ces "accidents" illustrent la difficulté à contrôler des interactions complexes entre systèmes automatisés, surtout dans des environnements instables.
Selon Tong Zhao, chercheur à Princeton University, la question ne se limite peut-être pas à l’absence d’émotions chez les machines. Le problème pourrait être plus fondamental : les IA ne "comprennent" pas les enjeux au sens humain du terme.
Pour un responsable politique, une frappe nucléaire évoque des millions de morts, une catastrophe humanitaire et des conséquences historiques irréversibles. Pour un modèle de langage, il s’agit d’une option stratégique parmi d’autres, évaluée selon des critères de cohérence ou d’efficacité interne au scénario. Cette différence de perception pourrait expliquer pourquoi les modèles testés se sont montrés si peu enclins à la désescalade complète.
Il est toutefois essentiel de replacer ces résultats dans leur contexte. Les modèles testés ne prennent aucune décision réelle : ils participent à des simulations encadrées par des chercheurs, dans un environnement fictif, sans accès à des systèmes militaires ni à des chaînes de commandement. Aujourd'hui les armes nucléaires restent sous contrôle humain, intégrées à des procédures extrêmement strictes avec plusieurs niveaux de validation politique et militaire.
L'idée qu'une IA puisse seule "appuyer sur le bouton" relève davantage de la spéculation que de la réalité opérationnelle actuelle. Par ailleurs, ces modèles ne sont pas conçus pour conduire des stratégies militaires réelles. Ils génèrent des réponses en fonctions des probabilités linguistiques et de consignes données dans un cadre expérimental. Leur propension à l'escalade dans un jeu de rôle ne signifie pas qu'ils seraient intégrés tels quels à des systèmes de décision stratégique.
En pratique, les outils d'IA utilisés dans le domaine militaire servent surtout à analyser des données, simuler des scénarios ou accélérer le traitement d'informations, pas à décider du déclenchement d'une frappe nucléaire. Ce qui demeure préoccupant, en revanche, c'est l'influence indirecte que ces systèmes pourraient exercer si les décideurs s'appuyaient excessivement sur des recommandations algorithmiques dans des situations de crises sur des délais très courts, ce qui pourrait impacter la perception du risque et alors accélérer des dynamiques d'escalade.
Le danger n'est donc pas celui d'une machine autonome déclenchant une guerre, mais celui d'une dépendance croissante à des outils dont la logique interne ne reflète pas toujours la prudence, la peur et la conscience historique qui guident les décisions humaines en matière de nucléaire.
Bienvenue sur RTL
Ne manquez rien de l'actualité en activant les notifications sur votre navigateur
Cliquez sur “Autoriser” pour poursuivre votre navigation en recevant des notifications. Vous recevrez ponctuellement sous forme de notifciation des actualités RTL. Pour vous désabonner, modifier vos préférences, rendez-vous à tout moment dans le centre de notification de votre équipement.
Bienvenue sur RTL
Rejoignez la communauté RTL, RTL2 et Fun Radio pour profiter du meilleur de la radio
Je crée mon compte