Leader della Silicon Valley come David Sacks e Jason Kwon di OpenAI hanno criticato i gruppi che promuovono la sicurezza dell’intelligenza artificiale, accusandoli di opportunismo e strategie di lobbying. La vicenda mette in luce lo scontro tra innovazione senza freni e regolamentazione etica.
Negli ultimi giorni, la Silicon Valley è stata scossa da un acceso dibattito sul futuro della sicurezza dell’intelligenza artificiale. David Sacks, zar della Casa Bianca per l’IA e le criptovalute, e Jason Kwon, chief strategy officer di OpenAI, hanno messo nel mirino diverse organizzazioni non profit accusandole di agire nell’interesse di miliardari o di perseguire obiettivi di cattura normativa.
Il confronto si è intensificato dopo che OpenAI ha inviato citazioni in giudizio a Encode e ad altre sei associazioni che avevano sostenuto la causa legale di Elon Musk contro l’azienda. L’accusa: scarsa trasparenza sulle fonti di finanziamento e presunto coordinamento politico. La scelta ha sollevato forti critiche anche dall’interno: Joshua Achiam, responsabile dell’allineamento delle missioni di OpenAI, ha definito la mossa “non una bella cosa”.
Sacks ha puntato il dito contro Anthropic, l’unico big tech a sostenere la legge californiana SB 53 che introduce requisiti di sicurezza per le grandi aziende IA. Secondo Sacks, l’azienda guidata da Jack Clark alimenterebbe timori catastrofici per spingere norme a proprio vantaggio.
Molti osservatori leggono in questa offensiva un tentativo di indebolire il movimento per la sicurezza, che negli ultimi anni ha guadagnato terreno, sostenuto da studi del Pew Research Center che mostrano come metà degli americani sia più preoccupata che entusiasta dell’IA, soprattutto per la perdita di posti di lavoro e i deepfake.
La tensione riflette una frattura profonda: da un lato l’esigenza di sviluppare l’IA con responsabilità, dall’altro la pressione per mantenere un’industria in rapida espansione, cruciale per l’economia statunitense.
Approfondimento e cronologia
- SB 1047 (California, 2024): proposta di legge sulla sicurezza dell’IA, poi bocciata dal governatore Gavin Newsom nonostante le raccomandazioni di think tank come Brookings (Brookings ).
- SB 53 (California, 2025): prima legge statale che introduce obblighi di segnalazione per le big tech IA (California Senate).
- OMS e sicurezza digitale: linee guida etiche per IA in sanità (WHO ).
- Pew Research Center (2025): metà degli americani più preoccupata che fiduciosa sull’IA (Pew Research).
Consigli di approfondimento
- Analisi Brookings sul futuro della regolazione IA
- Podcast Equity su TechCrunch: link.
- Relazione del Pew Research Center sugli atteggiamenti verso l’IA
Abstract
Lo scontro tra Silicon Valley e sostenitori della sicurezza dell’IA evidenzia una tensione crescente: il timore che norme più rigide possano rallentare la crescita economica si contrappone alla necessità di prevenire rischi concreti, dai deepfake alla disoccupazione tecnologica. Eticamente, il rischio è che la delegittimazione dei gruppi critici riduca la trasparenza e la pluralità del dibattito, con possibili conseguenze negative sulla fiducia pubblica. Socialmente, si prevede un aumento della polarizzazione tra innovatori e regolatori, con impatti sulle scelte politiche del 2026.







