Microsoft e NVIDIA presentano un’infrastruttura di supercalcolo senza precedenti per supportare i modelli di intelligenza artificiale di nuova generazione, consolidando la leadership tecnologica degli Stati Uniti.
Microsoft Azure ha annunciato il lancio della nuova serie di VM NDv6 GB300, che integra il primo cluster di produzione su larga scala basato su sistemi NVIDIA GB300 NVL72. Si tratta di un’infrastruttura progettata per i carichi di lavoro più complessi di OpenAI, capace di accelerare addestramento e inferenza dei modelli di intelligenza artificiale agentica e multimodale.
Il supercluster include oltre 4.600 GPU NVIDIA Blackwell Ultra, interconnesse attraverso la rete NVIDIA Quantum-X800 InfiniBand, e garantisce 1,44 exaflop di potenza FP4 con 37 terabyte di memoria veloce. Ogni rack NVL72 integra 72 GPU e 36 CPU NVIDIA Grace in un’unità coesa, raffreddata a liquido, trasformandosi in un unico acceleratore unificato con larghezza di banda interna da 130 TB/s.
Secondo i benchmark MLPerf Inference v5.1, la nuova architettura ha registrato prestazioni fino a 5 volte superioririspetto a quella NVIDIA Hopper, eccellendo con modelli di ragionamento avanzato come DeepSeek-R1 (671 miliardi di parametri) e Llama 3.1 405B.
Nidhi Chappell, vicepresidente di Azure AI Infrastructure, ha sottolineato come questo traguardo rifletta non solo la potenza hardware, ma anche “l’ottimizzazione congiunta di ogni livello del data center moderno”.
Con questa mossa, Microsoft si avvicina all’obiettivo di distribuire centinaia di migliaia di GPU Blackwell Ultra, offrendo a partner come OpenAI la capacità di sviluppare e implementare innovazioni su scala globale.
Approfondimento – Cronologia dei fatti
- 2023-2024: NVIDIA lancia l’architettura Hopper e successivamente Blackwell, introducendo NVLink e NVFP4.
- Aprile 2024: Microsoft e NVIDIA annunciano la collaborazione su supercomputer AI di nuova generazione.
- 2025: Rilascio ufficiale del cluster NVIDIA GB300 NVL72 su Azure, primo al mondo in produzione.
Fonti ufficiali:
- NVIDIA Newsroom
- Microsoft Azure AI Infrastructure
- MLCommons Benchmark
Consigli di approfondimento
- EU AI Act e infrastrutture AI
- OECD – AI Policy Observatory
- MIT Technology Review – Supercomputing AI
Abstract – Pro e rischi
Il nuovo cluster di Microsoft Azure e NVIDIA rappresenta un passo decisivo nell’abilitare modelli di IA avanzata con prestazioni record.
Pro: accelerazione di ricerca scientifica, sviluppo di modelli multimodali e applicazioni innovative.
Rischi: concentrazione del potere tecnologico in poche aziende, aumento dei consumi energetici e potenziali rischi etici legati all’uso di modelli sempre più potenti.
In prospettiva, l’infrastruttura potrebbe rafforzare la leadership USA nell’IA, ma solleva interrogativi su sovranità digitale ed equilibrio geopolitico.







