L’amministrazione Trump intende utilizzare sistemi di intelligenza artificiale generativa per redigere regolamenti federali sulla sicurezza dei trasporti. Il Dipartimento dei Trasporti (DOT) punta su Google Gemini per accelerare drasticamente la produzione normativa, sollevando interrogativi su affidabilità, responsabilità pubblica e rischi per la sicurezza.
L’uso dell’intelligenza artificiale nella scrittura delle norme federali entra in una nuova fase negli Stati Uniti. Secondo documenti interni e testimonianze raccolte da ProPublica, il Dipartimento dei Trasporti prevede di impiegare Google Gemini per redigere regolamenti che riguardano settori critici come aviazione, ferrovie, sicurezza stradale e oleodotti.
Durante una riunione interna, il consigliere generale del DOT, Gregory Zerzan, ha definito l’agenzia “la punta di diamante” dell’adozione dell’IA nel governo federale, sottolineando che l’obiettivo non è la perfezione normativa ma la velocità: regole “sufficientemente buone”, prodotte in grandi volumi e in tempi ridotti. Secondo il piano, una bozza regolatoria potrebbe essere generata in meno di 20 minuti e completare l’iter preliminare in circa 30 giorni.
La strategia si inserisce in un contesto politico favorevole all’automazione. Nel 2025, la Casa Bianca ha promosso l’adozione dell’IA attraverso ordini esecutivi e un AI Action Plan diffuso dall’Office of Management and Budget. Tuttavia, nessun documento ufficiale imponeva l’uso dell’IA per la scrittura normativa.
All’interno del DOT non mancano le preoccupazioni. Funzionari e giuristi temono errori, “allucinazioni” testuali e lacune giuridiche in regolamenti che hanno conseguenze dirette sulla sicurezza pubblica. Mike Horton, ex responsabile IA del Dipartimento, ha paragonato Gemini a “uno stagista delle superiori” applicato a decisioni di vita o di morte.
Secondo esperti di diritto amministrativo, l’IA può supportare la ricerca e l’analisi, ma delegarle la governance rischia di violare il principio di decisione razionata richiesto dalla legge federale. In un contesto di riduzione del personale pubblico e perdita di competenze, l’automazione normativa potrebbe accentuare fragilità sistemiche anziché risolverle.
— Approfondimento e contesto cronologico —
- Aprile 2025 – OMB pubblica un memorandum per accelerare l’adozione dell’IA nel governo federale
https://www.whitehouse.gov/omb/ - Luglio 2025 – Trapela una presentazione del Department of Government Efficiency (DOGE) che propone l’uso dell’IA per eliminare metà delle normative federali (Washington Post)
https://www.washingtonpost.com/ - Gennaio 2026 – ProPublica rivela l’uso sperimentale di Google Gemini per redigere norme DOT
https://www.propublica.org/
Consigli di approfondimento
- Bridget Dooling (Ohio State University), studi su IA e diritto amministrativo
https://moritzlaw.osu.edu/ - Consumer Federation of America – IA, regolazione e tutela dei consumatori
https://consumerfed.org/
Abstract – Pro, rischi ed effetti sociali futuri
Pro: velocizzazione dei processi, riduzione dei costi amministrativi, supporto alla ricerca normativa.
Rischi: errori sistemici, opacità decisionale, deresponsabilizzazione umana, impatti sulla sicurezza pubblica.
Conseguenze future: possibile normalizzazione della governance automatizzata, riduzione del controllo democratico e aumento della dipendenza da fornitori tecnologici privati.







