OpenAI ha annunciato una collaborazione strategica con Broadcom per la produzione di chip AI personalizzati, con l’obiettivo di ridurre la dipendenza da Nvidia e garantire una maggiore autonomia nella gestione della potenza di calcolo. L’accordo prevede la realizzazione di acceleratori AI per una capacità complessiva di 10 gigawatt, equivalenti a dieci centrali nucleari di media grandezza, da implementare nei data center dell’azienda.
Secondo la nota ufficiale, i nuovi chip permetteranno di integrare direttamente nell’hardware le competenze maturate nello sviluppo di modelli come ChatGPT e Sora, migliorando efficienza e scalabilità . La distribuzione dei primi rack di apparecchiature è prevista per la seconda metà del 2026, con completamento del progetto entro il 2029.
Sam Altman, CEO e co-fondatore di OpenAI, ha definito la partnership “un passo fondamentale” verso la costruzione di un’infrastruttura in grado di supportare l’avanzata verso sistemi di intelligenza artificiale superintelligente.
La mossa segue altre intese di rilievo, tra cui un accordo da 6 gigawatt con AMD e uno da 10 gigawatt con Nvidia, resi possibili dal nuovo assetto con Microsoft che ha allentato i vincoli di esclusiva.
Il trend dei chip personalizzati si sta consolidando nel settore: oltre a OpenAI, anche Google, Meta e Microsoft hanno avviato progetti simili per ridurre la dipendenza da Nvidia. Nonostante ciò, la posizione dominante del colosso californiano rimane intatta, mentre partnership come quella con Broadcom contribuiscono a diversificare la supply chain e a stimolare maggiore concorrenza.
Breve cronologia e fonti
- 2023–2024: Meta, Google e Microsoft avviano progetti interni di chip AI.
- 2024: OpenAI modifica l’accordo con Microsoft, aprendo a partnership infrastrutturali.
- Ottobre 2025: annuncio della collaborazione con Broadcom.
Fonti: The Verge, Reuters.
Consigli di approfondimento
- Analisi McKinsey sul mercato dei semiconduttori AI
- Rapporto OECD su AI e infrastrutture digitali
Abstract
La collaborazione OpenAI-Broadcom segna una svolta strategica: pro – maggiore indipendenza da Nvidia, ottimizzazione hardware-modello, rafforzamento della resilienza delle supply chain. Rischi – elevati costi di sviluppo, dipendenza tecnologica a lungo termine da pochi partner, impatti ambientali legati alla crescita della capacità computazionale. Le conseguenze future potrebbero includere una maggiore frammentazione del mercato dei chip AI, tensioni geopolitiche per il controllo delle risorse e nuove sfide etiche nella gestione di infrastrutture di potenza paragonabile a quella nucleare.







