Negli Stati Uniti il Dipartimento dei Trasporti sta sperimentando l’uso dell’intelligenza artificiale generativa per redigere nuove normative sulla sicurezza aerea, stradale, ferroviaria e marittima. Secondo un’inchiesta di ProPublica, l’iniziativa – sostenuta dall’amministrazione Trump – punta a ridurre drasticamente i tempi regolatori, sollevando però gravi interrogativi su affidabilità, responsabilità ed etica.
L’integrazione di Google Gemini nel processo normativo del Dipartimento dei Trasporti (DoT) segna un passaggio senza precedenti nella governance pubblica statunitense. Documenti interni ottenuti da ProPublica rivelano che l’agenzia sta utilizzando il modello linguistico di Google per produrre bozze di regolamenti vincolanti in tempi estremamente ridotti.
Durante una dimostrazione interna, l’avvocato del DoT Daniel Cohen ha presentato Gemini come uno strumento capace di “rivoluzionare il modo in cui elaboriamo le normative”, enfatizzando velocità ed efficienza. Secondo quanto riferito, una bozza normativa potrebbe essere generata in “20 minuti”, con l’obiettivo politico di arrivare all’adozione finale entro 30 giorni.
Il punto più critico emerge dalle parole del consulente generale Gregory Zerzan, che avrebbe dichiarato: “Non serve una regola perfetta. Vogliamo qualcosa di abbastanza buono. Stiamo allagando la zona”. Un approccio che privilegia la rapidità rispetto alla precisione in settori ad alto rischio come il controllo del traffico aereo.
Ex funzionari e dipendenti del Dipartimento, ascoltati in forma anonima, esprimono forti preoccupazioni. Mike Horton, ex responsabile IA del DoT, ha paragonato l’uso di Gemini a “uno stagista delle superiori incaricato di scrivere normative federali”.
Le criticità sono note: i modelli LLM sono soggetti a errori e “allucinazioni”. Gemini è già stato coinvolto in episodi documentati di disinformazione e contenuti errati, un rischio particolarmente grave se applicato a regolamenti che incidono direttamente sulla sicurezza pubblica.
— Approfondimento e contesto cronologico —
- 2024 – Prime linee guida federali USA sull’uso dell’IA nei processi amministrativi (OMB)
https://www.whitehouse.gov/omb/ - 2025 – Crescente uso sperimentale di LLM nelle agenzie federali
https://www.gao.gov/ - 27 gennaio 2026 – Inchiesta ProPublica sull’uso di Gemini nel DoT
https://www.propublica.org/
Consigli di approfondimento
- National Transportation Safety Board – Governance e sicurezza
https://www.ntsb.gov/ - OECD – AI in public policy
https://www.oecd.org/ai/
Abstract – Pro, rischi ed effetti sociali
L’uso dell’IA nella redazione normativa promette efficienza, riduzione dei costi e maggiore reattività istituzionale. Tuttavia, applicata a settori critici, comporta rischi elevati: errori sistemici, opacità decisionale, deresponsabilizzazione umana e normalizzazione di standard “sufficienti” anziché sicuri. A livello sociale, potrebbe erodere la fiducia nelle istituzioni e ridefinire il concetto stesso di responsabilità pubblica nell’era algoritmica.







