Le dimissioni di un ricercatore di OpenAI riaccendono il dibattito su trasparenza, etica e governance dell’intelligenza artificiale. Secondo un’inchiesta di Wired, l’azienda avrebbe scoraggiato la pubblicazione di studi sugli effetti economici negativi dell’IA, alimentando tensioni interne mentre OpenAI accelera la sua trasformazione in colosso globale a scopo di lucro.
OpenAI, tra i protagonisti mondiali dell’intelligenza artificiale generativa, è finita al centro di nuove polemiche dopo le dimissioni di Tom Cunningham, ricercatore del team di analisi economica. In un messaggio interno di commiato, Cunningham ha accusato l’azienda di essersi progressivamente allontanata dalla ricerca indipendente, assumendo un ruolo sempre più simile a quello di un apparato comunicativo orientato alla promozione dei propri prodotti.
Secondo Wired, almeno due ricercatori avrebbero lasciato OpenAI per frustrazione legata alla crescente cautela nel pubblicare studi che evidenziano i potenziali effetti negativi dell’IA su occupazione e stabilità economica. Un cambio di rotta confermato anche da un memo interno del responsabile strategico Jason Kwon, che ha invitato i team a “creare soluzioni” piuttosto che limitarsi a discutere “argomenti difficili”.
Queste tensioni si inseriscono in una trasformazione strutturale di OpenAI. Fondata nel 2016 con una missione no-profit e orientata all’open source, l’organizzazione è oggi una public benefit corporation con modelli proprietari, miliardi di dollari di investimenti e accordi industriali di portata storica, tra cui partnership con Microsoft e piani infrastrutturali da decine di miliardi di dollari. Secondo indiscrezioni, l’azienda starebbe valutando una futura quotazione in borsa con una valutazione fino a 1.000 miliardi di dollari.
Altri ex dipendenti, come William Saunders e Steven Adler, hanno in passato denunciato una priorità crescente data alla velocità di rilascio dei prodotti rispetto alla sicurezza e alla valutazione dei rischi sociali. Un segnale che, per molti osservatori, rafforza la necessità di una governance dell’IA più trasparente, indipendente e responsabile.
Approfondimento – Cronologia essenziale e fonti
- 2016 – Fondazione di OpenAI come organizzazione no-profit
https://openai.com/about - 2019–2023 – Transizione a struttura “capped-profit” e poi public benefit corporation
https://openai.com/our-structure - Settembre 2025 – Rapporto OpenAI sull’uso globale di ChatGPT e produttività
https://www.wired.com - Dicembre 2025 – Inchiesta Wired su dimissioni e censura interna
https://www.wired.com
Consigli di approfondimento
- OECD – AI and the Future of Work: https://www.oecd.org/artificial-intelligence/
- ILO – Generative AI and Jobs: https://www.ilo.org
- Commissione Europea – AI Act: https://digital-strategy.ec.europa.eu
Abstract – Pro, rischi e implicazioni future
Pro: capacità dell’IA di aumentare produttività, innovazione e crescita economica.
Rischi: perdita di fiducia pubblica, distorsione della ricerca, impatti occupazionali sottovalutati.
Conseguenze future: senza trasparenza e pluralismo scientifico, l’IA rischia di accentuare disuguaglianze sociali e tensioni tra interesse pubblico e logiche di mercato.








