- 04m03s
4 min de lecture
Des panaches de fumées à Téhéran en Iran, le 28 février 2026, alors que Israël a mené des "frappes préventives".
Crédit : GETTY IMAGES / GETTY IMAGES EUROPE / Getty Images via AFP
Je m'abonne à la newsletter « Infos »
Plus de 1.000 cibles frappées en 24 heures. Lors de l’offensive américaine contre l’Iran, l’intelligence artificielle a joué un rôle central dans l’identification et la hiérarchisation des objectifs militaires. Des drones autonomes en Ukraine à l’identification de cibles à Gaza, l’IA est désormais régulièrement utilisée dans les conflits. Ses capacités génératives - popularisées par ChatGPT - offrent de nouveaux avantages dans la planification des opérations.
En Iran, lors de l'opération Epic Fury menée par les États-Unis, conjointement avec Israël, qui a conduit à la mort du guide suprême Ali Khamenei samedi 28 février, Washington s'est appuyé sur la technologie Palantir.
Ce logiciel d’analyse de données, dopé à l’IA Claude développée par Anthropic, permet de traiter de vastes volumes d’informations : rapports de terrain, images satellites, communications interceptées ou encore simulations de scénarios. Il apparaît désormais comme un assistant stratégique dans la conduite de la guerre.
"Les Américains ont utilisé le système Claude AI, de la société Anthropic, pour faciliter la sélection des cibles en emmagasinant une somme colossale de données, telles que téléphoniques et géographiques. Cet outil accélère la gestion des données dans l'aide à la prise de décision", explique David Rigoulet-Roze, chercheur à l'Institut français d'analyse stratégique (IFAS), à RTL.fr.
Et de résumer : "C'est la gestion maximale des données, qui sont croisées, censée aider à la décision immédiate. Mais comme le souligne son fondateur Dario Amodei : 'dans un nombre restreint de cas, nous pensons que l'IA peut nuire aux valeurs démocratiques plutôt que les défendre'."
Selon The Times, le Pentagone développe depuis 2018 le programme Maven, un ensemble d’applications militaires conçu avec l’aide de Palantir. L’entreprise Anduril participe également au projet sur le volet des drones. Le logiciel intègre Claude, l'outil IA d'Anthropic, et est déployé dans l'ensemble des commandements de combat américains.
Lors des premières 24 heures de l'offensive contre l'Iran, plus de 1.000 cibles ont été frappées. Et selon The Washington Post, Maven, optimisé par Claude, en avait suggéré des centaines, fournissant leur localisation exacte et les classant par ordre d'importance. Selon plusieurs sources au journal américain, Anthropic aurait également été mobilisé dans la capture du président vénézuélien Nicolás Maduro. Mais c'est la première fois qu'il est employé dans des opérations militaires d'une telle ampleur.
Bryan Clark, chercheur au Hudson Institute, cité par le Times, compare ce système à une version militaire d’une application de VTC. "De la même manière que l'application Uber met en relation les conducteurs et les courses, les outils d'IA du système intelligent Maven identifient rapidement les unités les plus adaptées à une mission et proposent un plan pour les positionner", explique-t-il.
Dans le cas de l'Iran, "cela contribue à accélérer le rythme des opérations en réduisant le temps nécessaire à chaque phase de planification des ordres de mission aérienne". D'après le chercheur, grâce à l'IA, les plans opérationnels peuvent être finalisés en quelques heures, contre des jours d'analyse sur des tableurs auparavant.
Dans une guerre telle que celle contre l'Iran, les objectifs de l'IA générative sont clairs : absorber des volumes massifs de données, réduire le temps d’analyse et accélérer la prise de décision. Mais son utilisation soulève aussi des questions éthiques, notamment sur la responsabilité des combattants.
"Avec la dimension autonome des drones largement développée sur le théâtre ukrainien, les opérateurs humains ne contrôlent plus nécessairement la détermination des cibles ni la décision du ciblage effectif. Cela pose un problème éthique car l'IA est éthiquement neutre", souligne David Rigoulet-Roze. "Cela induit potentiellement une déresponsabilisation humaine à long terme qui commence à interroger jusqu'aux militaires eux-mêmes", pointe le chercheur.
Ce recours aux algorithmes pour identifier des cibles n’est pas inédit. À Gaza, le site web israélo-palestinien +972 affirme que la désignation des cibles a été largement déléguée à des systèmes automatisés. Selon le média, plusieurs logiciels baptisés Lavender et Where's Daddy ont été développés par l'État hébreu, pour identifier et localiser les combattants du Hamas. La désignation en tant que cible se faisait à partir de données collectées et analysées par des algorithmes.
Selon des officiels israéliens, interrogés par +972, ils n'étaient pas obligés de vérifier manuellement la pertinence des cibles détectées, pour gagner du temps. Le personnel humain ne consacrait qu'une vingtaine de secondes à chaque cible avant d'autoriser un bombardement. Le taux d'erreur du système était en moyenne de 10%.
C'est dans ce contexte que la crise entre Washington et Anthropic s'est cristallisée. La société américaine avait posé plusieurs lignes rouges au Pentagone, refusant notamment d'ouvrir ses modèles d'intelligence artificielle sans restrictions à l'armée américaine au nom de l'éthique. Son patron Dario Amodei avait insisté sur le fait que les systèmes les plus avancés d'IA ne sont pas encore fiables au point de leur confier le pouvoir de contrôler des armes mortelles - et donc de tuer - sans une supervision humaine en dernier ressort.
Face à ce refus, le gouvernement Trump a sanctionné Anthropic, considéré comme l'un des fleurons mondiaux de l'IA, et a mis fin à tous ses contrats. "Leur égoïsme met en danger des vies américaines, nos troupes et la sécurité nationale", a accusé le président américain. "Les États-Unis ne laisseront jamais une entreprise de gauche radicale et woke dicter à notre grande armée comment combattre et gagner des guerres!", a-t-il écrit en majuscules.
Quelques heures à peine après la communication de Donald Trump, OpenAI est apparu comme le grand vainqueur de cette crise, annonçant un accord avec le ministère de la Défense pour l'utilisation de ses modèles. Les contours de ce partenariat demeurent flous, le géniteur de ChatGPT assure toutefois que les attaques automatisées en sont exclues.
Bienvenue sur RTL
Ne manquez rien de l'actualité en activant les notifications sur votre navigateur
Cliquez sur “Autoriser” pour poursuivre votre navigation en recevant des notifications. Vous recevrez ponctuellement sous forme de notifciation des actualités RTL. Pour vous désabonner, modifier vos préférences, rendez-vous à tout moment dans le centre de notification de votre équipement.
Bienvenue sur RTL
Rejoignez la communauté RTL, RTL2 et Fun Radio pour profiter du meilleur de la radio
Je crée mon compte