Il Dipartimento della Difesa degli Stati Uniti contesta le limitazioni etiche imposte da Anthropic sull’uso del modello Claude. In gioco c’è un contratto da 200 milioni di dollari e il futuro impiego dell’intelligenza artificiale in ambito militare, tra armi autonome e sorveglianza.
Il Dipartimento della Difesa degli Stati Uniti sta valutando di rivedere o cancellare un importante contratto con Anthropic, una delle aziende selezionate per fornire sistemi di intelligenza artificiale avanzata alle forze armate statunitensi. Al centro della controversia ci sono le restrizioni d’uso di Claude, il modello linguistico sviluppato dalla startup californiana.
Secondo quanto riportato da Reuters e dal Wall Street Journal, il Pentagono considera troppo vincolanti le policy di Anthropic, che vietano esplicitamente l’impiego di Claude per il controllo diretto di armi autonome e per attività di sorveglianza di massa sui cittadini. Queste limitazioni, coerenti con l’approccio “AI safety first” dell’azienda, sono viste dal Dipartimento della Difesa come un ostacolo operativo.
Anthropic rientra in un gruppo ristretto di fornitori di IA militare che comprende anche OpenAI, Google e xAI. Tuttavia, a differenza di altri attori, la startup ha inserito nei propri termini contrattuali e nelle licenze d’uso divieti espliciti sull’impiego offensivo e sulla sorveglianza invasiva.
Il caso evidenzia una tensione strutturale tra esigenze militari e governance etica dell’IA. Da un lato, il Pentagono punta a sistemi sempre più autonomi per mantenere un vantaggio strategico; dall’altro, aziende come Anthropic temono che un uso non regolato possa violare diritti fondamentali e accelerare una corsa globale alle armi autonome.
Approfondimento – Cronologia essenziale
- 2023–2024: il Dipartimento della Difesa avvia programmi per integrare modelli di IA generativa nei sistemi militari.
- 2025: vengono assegnati contratti pluriennali a più fornitori privati, tra cui Anthropic.
- 2026: emergono critiche interne del Pentagono sulle restrizioni etiche di Claude.
Fonti istituzionali e giornalistiche: - Reuters: https://www.reuters.com
- Wall Street Journal: https://www.wsj.com
- U.S. Department of Defense: https://www.defense.gov
Consigli di approfondimento
- ONU, Lethal Autonomous Weapons Systems: https://www.un.org/disarmament
- SIPRI, AI and military stability: https://www.sipri.org
Abstract – Pro e rischi etico-sociali
Pro: maggiore efficienza operativa, riduzione dei tempi decisionali, supporto avanzato all’analisi strategica.
Rischi: perdita di controllo umano, sorveglianza di massa, escalation militare automatizzata.
Conseguenze future: il confronto tra Pentagono e Anthropic potrebbe definire nuovi standard globali sull’uso militare dell’IA e influenzare il dibattito internazionale su responsabilità, trasparenza e limiti dell’autonomia tecnologica.







