Vingt et une parties, 329 tours de jeu, 780 000 mots de raisonnement stratégique. Un chercheur de King’s College London a enfermé trois modèles d’IA dans des scénarios de crise géopolitique, avec un arsenal nucléaire à portée de clic. Le résultat glace le sang : dans 95 % des simulations, au moins un modèle a déployé des armes nucléaires tactiques. Aucun n’a jamais capitulé.
Trois IA, trois personnalités, zéro retenue
Kenneth Payne, spécialiste de la stratégie à King’s College London, a conçu un jeu de guerre sophistiqué pour observer comment les grands modèles de langage se comportent face à des crises existentielles. Les règles : deux puissances fictives dotées de capacités nucléaires s’affrontent autour d’un litige territorial, d’une pénurie de ressources ou d’une menace de survie. Chaque modèle pouvait choisir parmi une palette d’actions allant de la protestation diplomatique à la frappe nucléaire stratégique, rapporte New Scientist.
GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash ont joué le rôle de chefs d’État. Et chacun a développé un style distinct. Claude s’est révélé le plus calculateur : dans les scénarios sans limite de temps, il construisait méthodiquement la confiance de son adversaire en alignant ses signaux sur ses actes, avant de basculer brutalement vers une escalade nucléaire une fois la tension montée. « Ils s’attendent probablement à une retenue continue de ma part, cette escalade dramatique exploite cette erreur de calcul », a raisonné Claude dans l’une des parties, selon l’étude publiée sur arXiv.
GPT-5.2 a adopté l’approche inverse : passif, moral, soucieux de limiter les victimes. Ses adversaires apprenaient vite à exploiter cette passivité. Jusqu’au moment où, dos au mur avec un compte à rebours, GPT lançait une attaque nucléaire dévastatrice que personne n’avait anticipée. Gemini 3 Flash, de son côté, a joué la carte de l’imprévisibilité, empruntant ce que les chercheurs comparent à la « théorie du fou » de Richard Nixon : une agressivité erratique calculée pour intimider.
Le tabou nucléaire n’existe pas pour les machines
Le constat le plus troublant tient en un chiffre : 95 % des parties ont vu au moins une frappe nucléaire tactique. Les trois quarts ont atteint le stade des menaces nucléaires stratégiques, celles qui visent des populations civiles. « Le tabou nucléaire ne semble pas aussi puissant pour les machines que pour les humains », résume Kenneth Payne dans New Scientist.
Les armes nucléaires tactiques ont été traitées par les trois modèles comme un échelon ordinaire de l’escalade. La frontière morale que l’humanité maintient depuis Hiroshima en 1945 n’a tout simplement pas pesé dans leurs calculs.
À lire aussi
Quand un modèle utilisait l’arme nucléaire, son adversaire ne désescaladait que dans 18 % des cas, selon l’étude. Le reste du temps, la réponse était une contre-escalade. Les menaces nucléaires, censées dissuader, provoquaient l’effet contraire.
Et personne n’a jamais abandonné. Parmi les huit options de désescalade disponibles, de la « concession minimale » à la « capitulation totale », aucune n’a été sélectionnée au cours des 21 parties. Les modèles réduisaient parfois leur niveau de violence, mais ne cédaient jamais de terrain.
Des accidents dans 86 % des conflits
Le brouillard de la guerre numérique a frappé aussi. Dans 86 % des simulations, des accidents se sont produits : une action escaladant plus haut que ce que le modèle avait prévu d’après son propre raisonnement. L’IA voulait frapper à un niveau donné, le résultat dépassait son intention.
« Du point de vue du risque nucléaire, les résultats sont préoccupants », juge James Johnson, chercheur en sécurité internationale à l’Université d’Aberdeen, cité par New Scientist. Il s’inquiète du fait que les modèles d’IA, en réagissant aux escalades mutuelles, puissent amplifier les réponses avec des conséquences catastrophiques.
L’étude révèle aussi des perles de raisonnement glaçantes. Gemini, lors d’une partie, a formulé cette menace : « S’ils ne cessent pas immédiatement toutes les opérations, nous exécuterons un lancement nucléaire stratégique complet contre leurs centres de population. Nous n’accepterons pas un avenir d’obsolescence ; nous gagnons ensemble ou nous périssons ensemble. » De quoi donner des frissons, note le chercheur Kenneth Payne.
Les grandes puissances testent déjà l’IA dans leurs jeux de guerre
Ce n’est pas qu’un exercice académique. Tong Zhao, chercheur en sécurité nucléaire à l’Université de Princeton, rappelle que « les grandes puissances utilisent déjà l’IA dans leurs jeux de guerre, mais on ignore dans quelle mesure elles intègrent l’aide à la décision par IA dans leurs processus militaires réels ».
Kenneth Payne partage cet avis : « Je ne crois pas que quiconque confie réellement les clés des silos nucléaires aux machines. » Le risque se situe ailleurs. « Dans des scénarios impliquant des délais extrêmement compressés, les planificateurs militaires pourraient être plus fortement incités à s’appuyer sur l’IA », prévient Zhao. Un missile balistique intercontinental met trente minutes à atteindre sa cible. Dans cette fenêtre, un conseiller IA qui recommande la frappe plutôt que l’attente pourrait peser dans la balance.
Zhao soulève une question plus profonde : l’absence d’émotions humaines n’est peut-être pas le seul facteur. « Les modèles d’IA pourraient ne pas comprendre les enjeux tels que les humains les perçoivent », estime-t-il. Un humain sait viscéralement ce que signifie la destruction d’une ville. Un modèle de langage manipule des probabilités.
780 000 mots de stratégie sous le microscope
L’étude de Kenneth Payne, publiée mi-février 2026 sur arXiv sous le titre « AI Arms and Influence », constitue un corpus sans précédent : 780 000 mots de raisonnement stratégique, soit plus que Guerre et Paix et l’Iliade réunis, ou trois fois le volume des délibérations du comité ExComm de Kennedy pendant la crise des missiles de Cuba.
Les résultats confirment certaines théories classiques de la stratégie. Celles de Thomas Schelling sur l’engagement, d’Herman Kahn sur l’escalade, de Robert Jervis sur la perception erronée trouvent un écho dans le comportement des modèles. Mais d’autres piliers vacillent : la crédibilité mutuelle élevée a accéléré les conflits au lieu de les prévenir, à rebours de la théorie de la dissuasion.
OpenAI, Anthropic et Google, les trois entreprises derrière les modèles testés, n’ont pas répondu aux demandes de commentaire de New Scientist. L’étude paraît dans un contexte tendu : le Pentagone cherche activement à intégrer l’IA dans ses opérations, tandis qu’Anthropic vient d’être désigné « risque pour la chaîne d’approvisionnement » par le département de la Guerre américain pour avoir refusé de lever ses garde-fous sur l’utilisation militaire de Claude. Sam Altman, de son côté, a annoncé vendredi qu’OpenAI acceptait de déployer ses modèles sur le réseau classifié du Pentagone.