OpenAI mira a creare un “ricercatore di intelligenza artificiale” entro il 2028, accelerando la corsa verso la superintelligenza.
L’intelligenza artificiale verso l’autonomia scientifica
OpenAI ha annunciato un piano ambizioso: realizzare entro il 2028 un “ricercatore di intelligenza artificiale legittimo”, un sistema capace di condurre autonomamente progetti scientifici complessi. Il CEO Sam Altman ha svelato la visione durante una diretta streaming, spiegando che entro il 2026 la società intende già raggiungere un assistente di ricerca AI di livello tirocinante.
La dichiarazione coincide con la ristrutturazione di OpenAI, che diventa una società di pubblica utilità, mantenendo però un’anima scientifica non-profit. La nuova OpenAI Foundation, che deterrà il 26% della compagnia, avrà un budget dedicato di 25 miliardi di dollari per promuovere l’uso dell’IA nella ricerca medica e nella sicurezza.
Il direttore scientifico Jakub Pachocki ha chiarito che il futuro “ricercatore AI” non sarà un essere umano, ma un sistema autonomo in grado di pianificare e portare avanti interi programmi di ricerca. Secondo Pachocki, i modelli di deep learning più avanzati sono ormai capaci di affrontare compiti di cinque ore con risultati paragonabili ai migliori studenti delle Olimpiadi Internazionali di Matematica.
Per raggiungere la superintelligenza, OpenAI punterà su due leve: innovazione algoritmica e potenza computazionale, prevedendo di investire in infrastrutture da 30 gigawatt — pari a un impegno finanziario stimato di 1,4 trilioni di dollari.
Approfondimento e contesto
- Cronologia e fonti:
- OpenAI Governance – Statuto e principi etici.
- U.S. National Science Foundation – Politiche per la ricerca AI.
- European Commission AI Act – Regolazione e sicurezza AI.
- Consigli di approfondimento:
- “Superintelligenza e limiti etici dell’IA” – Stanford HAI Report 2025.
- “AI Infrastructure Outlook 2025” – McKinsey & Co.
Abstract etico e prospettico
Il progetto di OpenAI rappresenta un punto di svolta nella storia dell’IA. Pro: accelerazione della ricerca scientifica, nuove scoperte in medicina e fisica, innovazione globale. Rischi: perdita di controllo umano, concentrazione di potere tecnologico e dilemmi etici sulla responsabilità delle decisioni autonome.
Le conseguenze future dipenderanno dal bilanciamento tra progresso tecnico e governance etica, determinante per evitare che la superintelligenza travalichi i confini della sicurezza e dell’umanità.







