La storica legge sulla sicurezza dell’intelligenza artificiale dello Stato di New York è stata profondamente ridimensionata all’ultimo momento. Il Responsible AI Safety and Education Act (RAISE Act), nato per imporre obblighi stringenti di sicurezza e trasparenza ai grandi sviluppatori di modelli di IA, è stato riscritto in una versione più favorevole alle aziende tecnologiche dopo una forte pressione coordinata di Big Tech e università.
La norma, approvata inizialmente dal Senato e dall’Assemblea di New York, prevedeva che le aziende che sviluppano modelli di grandi dimensioni – tra cui OpenAI, Google, Meta e Anthropic – fossero obbligate a definire piani di sicurezza, valutazioni del rischio e procedure di segnalazione degli incidenti gravi al procuratore generale dello Stato. Tuttavia, la versione firmata il 23 dicembre 2025 dalla governatrice Kathy Hochul risulta sensibilmente indebolita rispetto al testo originale.
Secondo i dati dell’Ad Library di Meta, nel mese precedente alla firma della legge un gruppo di aziende tecnologiche e istituzioni accademiche ha investito tra i 17.000 e i 25.000 dollari in una campagna pubblicitaria digitale contro il RAISE Act, raggiungendo potenzialmente oltre due milioni di persone. Al centro dell’azione di lobbying c’è l’AI Alliance, un consorzio che include Meta, IBM, Intel, Oracle, AMD, Databricks, Hugging Face e Uber, insieme a importanti università statunitensi.
L’AI Alliance aveva definito il disegno di legge “irrealizzabile” e dannoso per la ricerca e l’innovazione, sostenendo che avrebbe imposto oneri eccessivi e creato incertezza giuridica. Di segno opposto le preoccupazioni della società civile: oltre 150 genitori avevano scritto alla governatrice chiedendo di firmare la legge senza modifiche, sottolineando i rischi per la sicurezza pubblica legati a sistemi di IA sempre più potenti e opachi.
Il caso del RAISE Act evidenzia un nodo cruciale del dibattito globale sull’intelligenza artificiale: il delicato equilibrio tra tutela dei cittadini, responsabilità dei produttori e libertà di ricerca. New York, che ambiva a diventare un modello normativo negli Stati Uniti, si trova ora al centro di una controversia che potrebbe influenzare le future politiche federali sull’IA.
Approfondimento – Cronologia essenziale
- Giugno 2025: il RAISE Act viene approvato da Senato e Assemblea dello Stato di New York.
- Estate–Autunno 2025: Big Tech e università avviano pressioni pubbliche e istituzionali contro la legge.
- Dicembre 2025: campagna pubblicitaria dell’AI Alliance e riscrittura finale del testo.
- 23 dicembre 2025: firma della governatrice Kathy Hochul in versione modificata.
Fonti istituzionali e autorevoli:
- Stato di New York – Governor’s Office: https://www.governor.ny.gov
- New York State Legislature: https://nyassembly.gov
- The Verge (inchiesta di Campo Hayden): https://www.theverge.com
Consigli di approfondimento:
- National Institute of Standards and Technology (NIST), AI Risk Management Framework: https://www.nist.gov/ai
- OECD AI Policy Observatory: https://oecd.ai
Abstract – Pro, rischi e implicazioni etico-sociali
Il RAISE Act nasceva con l’obiettivo di rafforzare la sicurezza e la responsabilità dei grandi modelli di IA, promuovendo trasparenza e prevenzione dei rischi sistemici. Il ridimensionamento della legge riduce però le garanzie per cittadini e istituzioni, rafforzando il potere negoziale delle grandi aziende tecnologiche. A livello etico e sociale, il caso segnala il rischio di una regolazione “catturata” dagli interessi industriali, con possibili conseguenze future sulla fiducia pubblica, sulla protezione dei minori e sulla governance democratica dell’intelligenza artificiale.







