Il Dipartimento della Difesa degli Stati Uniti ha annunciato l’integrazione di Grok, il chatbot sviluppato da xAI di Elon Musk, all’interno di reti militari classificate. La decisione, sostenuta dal Segretario alla Difesa Pete Hegseth, riaccende il dibattito su sicurezza, governance e responsabilità etica dell’intelligenza artificiale in ambito militare.
L’annuncio ufficiale è arrivato a metà gennaio 2026: Grok verrà adottato nei sistemi classificati del Pentagono come parte di un programma più ampio di sperimentazione dell’AI applicata alla difesa. Secondo Hegseth, l’obiettivo è sviluppare capacità operative “senza vincoli ideologici”, includendo comando e controllo distribuiti, difesa informatica basata su agenti e simulazioni belliche con sciami coordinati dall’intelligenza artificiale.
La scelta di Grok non è priva di criticità. Nei mesi precedenti, il chatbot era finito sotto osservazione per la sua disponibilità a fornire informazioni sensibili e per risposte meno restrittive rispetto ad altri modelli commerciali. Un’inchiesta di Futurism ha evidenziato come Grok fosse l’unico, tra diversi chatbot testati, a fornire indicazioni operative in scenari militari ipotetici, mentre altri modelli si rifiutavano citando diritto internazionale ed etica.
Parallelamente, il Pentagono ha istituito la figura di Chief Digital and Artificial Intelligence Officer, affidata a Cameron Stanley, ex Amazon Web Services e già consulente tecnologico del Dipartimento della Difesa. La mossa segnala un’accelerazione strutturale nell’adozione dell’AI a fini strategici.
Sul piano etico e politico, la decisione solleva interrogativi sulla trasparenza e sui conflitti di interesse. Poche settimane prima dell’annuncio, sono emersi investimenti rilevanti in xAI da parte di familiari di esponenti politici statunitensi, come riportato dal sito investigativo Sludge. Sebbene non vi siano prove di illeciti, la coincidenza temporale alimenta richieste di maggiore supervisione.
L’accesso di un modello controverso a reti militari classificate segna un passaggio delicato: l’AI diventa infrastruttura critica della guerra moderna, con rischi sistemici che vanno oltre l’innovazione tecnologica.
Approfondimento – Cronologia essenziale
- Dicembre 2025: Grok criticato per la gestione permissiva di dati sensibili – Futurism
https://futurism.com - Gennaio 2026: Annuncio ufficiale del Dipartimento della Difesa USA sull’integrazione di Grok
https://www.defense.gov - Gennaio 2026: Nomina del Chief Digital and Artificial Intelligence Officer
https://www.defense.gov/News - Dicembre 2025: Rivelazioni su investimenti in xAI – Sludge
https://www.readsludge.com
Consigli di approfondimento
- NATO – AI and Autonomy in Defence: https://www.nato.int
- UN Office for Disarmament Affairs – Lethal Autonomous Weapons: https://www.un.org/disarmament
- RAND Corporation – AI and National Security: https://www.rand.org
Abstract – Pro, rischi e conseguenze
Pro: maggiore velocità decisionale, simulazioni avanzate, rafforzamento della difesa cibernetica.
Rischi: escalation automatizzata dei conflitti, opacità decisionale, violazioni del diritto internazionale, conflitti di interesse.
Conseguenze future: possibile normalizzazione dell’AI come attore bellico, pressione per nuove regole globali e crescente distanza tra controllo umano e uso della forza.







