Il segretario alla Difesa degli Stati Uniti, Pete Hegseth, ha imposto un ultimatum all’azienda di intelligenza artificiale Anthropic chiedendo di rimuovere le salvaguardie etiche del suo modello di IA Claude e concedere accesso illimitato per uso militare entro venerdì, minacciando in caso contrario sanzioni severe e possibili azioni ai sensi del Defense Production Act (DPA).
Durante un incontro teso al Pentagono, Hegseth ha detto al CEO Dario Amodei che il Dipartimento della Difesa potrebbe rompere i rapporti contrattuali, dichiarare Anthropic un “rischio per la catena di approvvigionamento” o invocare il Defense Production Act, norma federale che può obbligare aziende private a fornire tecnologie critiche per la sicurezza nazionale.
Anthropic ha già fornito a Claude accesso alle reti classificate del Pentagono e ha un contratto miliardario attivo, ma mantiene politiche che vietano l’uso del modello per sorveglianza di massa domestica o lo sviluppo di armi autonome senza supervisione umana.
Nel rifiutare di cedere alle richieste, Amodei ha affermato che l’azienda “non può in buona coscienza” accettare l’eliminazione delle salvaguardie, pur precisando che intende continuare le trattative e sostenere l’uso dell’IA per rafforzare la sicurezza nazionale nelle condizioni ritenute eticamente appropriate.
Il Pentagono ha risposto sottolineando che le sue richieste riguardano l’uso “légale” dell’IA e che non intende violare leggi contro la sorveglianza di cittadini o sviluppare armi completamente autonome. Tuttavia, ha ribadito che non permetterà a una singola azienda di imporre condizioni operative alle Forze Armate statunitensi.
Questa disputa segna una delle prime crisi pubbliche tra governo e industria tecnologica sulla governance dell’intelligenza artificiale, evidenziando conflitti tra etica, sicurezza nazionale e competizione tecnologica globale.







