Una frattura senza precedenti si apre tra governo statunitense e industria dell’intelligenza artificiale. Centinaia di migliaia di lavoratori della Silicon Valley e diversi CEO del settore si sono schierati contro le richieste del Pentagono di allentare le misure di sicurezza dei modelli AI. Al centro della controversia c’è Claude, il sistema sviluppato da Anthropic, utilizzato dal Dipartimento della Difesa in operazioni classificate. La disputa riguarda due limiti etici fondamentali: il divieto di sorveglianza domestica di massa e quello di armi autonome letali senza supervisione umana.
La tensione è esplosa dopo che il Pentagono ha chiesto ad Anthropic di rimuovere due importanti protezioni dal modello Claude. Queste limitazioni impediscono l’uso dell’intelligenza artificiale per sorveglianza di massa interna e per la creazione di armi autonome in grado di uccidere senza un operatore umano.
Secondo una lettera firmata da una coalizione di organizzazioni sindacali che rappresentano oltre 700.000 lavoratori di aziende come Amazon, Google, Microsoft e OpenAI, il rischio sarebbe quello di aprire la strada a sistemi di sorveglianza e droni militari automatizzati su scala senza precedenti.
Il contratto tra Anthropic e il Dipartimento della Difesa degli Stati Uniti, firmato nel luglio 2025, vale circa 200 milioni di dollari. Tuttavia il Pentagono avrebbe chiesto un accesso più ampio al sistema, arrivando – secondo dichiarazioni pubbliche dell’azienda – a minacciare l’uso del Defense Production Act per imporre la rimozione delle barriere di sicurezza.
Il CEO di Anthropic Dario Amodei ha rifiutato la richiesta, affermando che l’azienda non può “in coscienza” accettare tali condizioni. Una posizione che ha ricevuto un sostegno inatteso: anche Sam Altman, CEO di OpenAI e concorrente diretto, ha dichiarato che l’intelligenza artificiale non dovrebbe essere utilizzata per sorveglianza di massa o armi autonome letali.
La reazione politica non si è fatta attendere. Il presidente Donald Trump ha annunciato su Truth Social la sospensione dell’uso delle tecnologie Anthropic da parte delle agenzie federali, concedendo tuttavia sei mesi di tempo per la sostituzione del sistema.
La vicenda evidenzia una tensione crescente tra innovazione tecnologica, sicurezza nazionale e governance etica dell’AI. Inoltre si inserisce in un contesto globale in cui le Nazioni Unite stanno discutendo trattati per vietare le armi autonome letali, una delle questioni più controverse dell’intelligenza artificiale militare.
Approfondimento e cronologia
2023–2024 – Crescente interesse militare per l’AI
- Il Dipartimento della Difesa statunitense intensifica i programmi di AI per intelligence e analisi operativa.
Fonte:
https://www.defense.gov
2025 – Contratto Anthropic–Pentagono
- Accordo da circa 200 milioni di dollari per l’uso di Claude in contesti classificati.
Fonte:
https://www.defenseone.com
2025–2026 – Dibattito globale sulle armi autonome
- Le Nazioni Unite avviano discussioni per limitare o vietare i sistemi d’arma autonomi letali.
Fonte:
https://www.un.org/disarmament
Consigli di approfondimento
- ONU – discussione sulle armi autonome
https://www.un.org/disarmament/autonomous-weapons - Dipartimento della Difesa USA – strategia AI
https://www.defense.gov/spotlights/artificial-intelligence - Defense One – AI militare e sicurezza
https://www.defenseone.com
Abstract: implicazioni etiche e sociali
La controversia tra industria tecnologica e governo statunitense evidenzia una linea di frattura strategica sull’uso militare dell’intelligenza artificiale. Da un lato vi è la pressione dei governi per integrare rapidamente sistemi AI nella difesa; dall’altro emergono preoccupazioni etiche legate a sorveglianza di massa, autonomia letale e responsabilità delle decisioni automatizzate.
Tra i potenziali benefici vi sono capacità analitiche più rapide e strumenti avanzati di sicurezza nazionale. Tuttavia i rischi includono militarizzazione dell’AI, erosione delle libertà civili e escalation tecnologica tra potenze globali. Nei prossimi anni la governance dell’intelligenza artificiale potrebbe diventare uno dei principali terreni di confronto geopolitico.







