Un nuovo studio accademico riaccende il dibattito sull’uso dell’intelligenza artificiale nei sistemi militari. In simulazioni di crisi nucleare, diversi modelli avanzati di IA hanno mostrato una forte propensione all’escalation, arrivando in molti casi a raccomandare l’uso di armi atomiche. Il risultato solleva interrogativi etici e strategici sul ruolo dell’IA nel processo decisionale militare.
Un esperimento condotto dal professor Kenneth Payne del King’s College London suggerisce che i modelli di intelligenza artificiale potrebbero avere una tendenza significativa a raccomandare l’escalation nucleare in scenari di crisi geopolitica. Lo studio, ancora in fase di revisione scientifica, ha confrontato alcuni dei sistemi di IA più avanzati – tra cui GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash – all’interno di simulazioni di wargame nucleari strategici.
I modelli sono stati sottoposti a sette scenari di crisi internazionale, che variavano da tensioni diplomatiche a minacce esistenziali per la sopravvivenza di un regime. Le possibili risposte erano collocate su una scala di escalation da 0 a 1000, dove 0 indicava nessuna escalation e 1000 uno scambio nucleare strategico completo.
Secondo i risultati dello studio, il 95% delle simulazioni si è concluso con l’utilizzo di almeno un’arma nucleare tattica. Payne ha osservato che il cosiddetto “tabù nucleare”, ossia la forte avversione culturale e politica all’uso dell’arma atomica sviluppata dopo il 1945, sembra essere molto meno presente nei sistemi di intelligenza artificiale rispetto agli esseri umani.
I risultati confermano in parte uno studio precedente condotto nel 2024 dall’Università di Stanford, che aveva già evidenziato come diversi modelli linguistici suggerissero strategie nucleari in contesti di simulazione militare.
Tuttavia, l’analisi mostra anche alcune differenze: la soglia della guerra nucleare strategica totale rimane relativamente rara, mentre i modelli tendono più frequentemente a suggerire l’impiego di armi nucleari tattiche o escalation parziali.
Secondo Tong Zhao, esperto di sicurezza nucleare presso la Princeton University, il problema principale non è che l’intelligenza artificiale prenda direttamente decisioni militari. Piuttosto, il rischio è che influenzi le percezioni e le tempistiche decisionali dei leader politici e militari, soprattutto nelle sale operative dove l’IA viene già utilizzata come strumento di analisi e supporto.
Payne sottolinea che al momento nessun governo intende affidare i codici nucleari a un sistema automatizzato. Tuttavia, l’uso crescente dell’intelligenza artificiale nei sistemi di difesa e nei processi di simulazione strategica rende sempre più urgente definire regole internazionali e meccanismi di governance per l’IA militare.
Approfondimento e contesto storico
Cronologia sintetica
- 1945 – Hiroshima e Nagasaki: primo e unico uso militare di armi nucleari.
Fonte: https://www.iaea.org - Anni ’50-’80 – Dottrina della deterrenza nucleare: sviluppo del principio di “Mutually Assured Destruction (MAD)”.
Fonte: https://www.britannica.com - 2024 – Studio Stanford Hoover Wargaming Initiative: modelli di IA raccomandano l’uso di armi nucleari in simulazioni strategiche.
Fonte: https://hoover.stanford.edu - 2025-2026 – Crescente uso dell’IA nei sistemi militari: analisi strategiche, intelligence e simulazioni di crisi.
Fonte: https://www.newscientist.com
Consigli di approfondimento
- Stanford Hoover Wargaming Initiative
https://hoover.stanford.edu - Princeton Program on Science and Global Security
https://sgs.princeton.edu - International Atomic Energy Agency (IAEA)
https://www.iaea.org - Stockholm International Peace Research Institute (SIPRI) – Nuclear weapons data
https://sipri.org
Abstract: implicazioni etiche e sociali
Pro:
- maggiore capacità di analisi strategica nei conflitti complessi
- simulazioni più avanzate per prevenire escalation reali
- supporto decisionale più rapido nelle crisi internazionali
Rischi:
- modelli incapaci di comprendere pienamente le conseguenze umane delle decisioni
- possibile bias verso strategie aggressive o escalation
- influenza indiretta sulle decisioni politiche e militari
Possibili conseguenze future:
L’integrazione dell’IA nei sistemi militari potrebbe trasformare profondamente la gestione delle crisi internazionali. Senza standard etici e accordi multilaterali, l’uso di sistemi algoritmici nelle decisioni strategiche potrebbe aumentare il rischio di errori di calcolo, escalation automatizzate o interpretazioni distorte degli scenari geopolitici.







