CoreWeave è tra i primi provider cloud a offrire pubblicamente l’accesso alla nuova piattaforma NVIDIA GB200 NVL72, basata su GPU Blackwell. Aziende come Cohere, IBM e Mistral AI stanno già sfruttando migliaia di GPU per addestrare modelli di intelligenza artificiale avanzata, in particolare agenti AI per applicazioni aziendali.
I sistemi rack-scale GB200 NVL72, connessi tramite NVIDIA NVLink e dotati di 72 GPU Blackwell e 36 CPU Grace, offrono prestazioni fino a tre volte superiori rispetto alla generazione precedente. Cohere ha integrato queste risorse per la sua piattaforma North, che consente di creare agenti AI personalizzati per flussi di lavoro aziendali. Grazie alla nuova architettura, ha ottenuto una significativa riduzione nei tempi di inferenza.
IBM, attraverso la sua suite Granite, utilizza GB200 NVL72 per sviluppare modelli open source per l’ecosistema Watsonx. La combinazione con IBM Storage Scale System consente prestazioni elevate anche a livello di archiviazione dati.
Mistral AI, realtà francese leader nell’open source, ha implementato le GPU Blackwell per sviluppare la nuova generazione di modelli linguistici. Ha già registrato un raddoppio delle prestazioni nell’addestramento di modelli densi, senza ottimizzazioni dedicate.
CoreWeave prevede di espandere ulteriormente la disponibilità , offrendo fino a 110.000 GPU su cloud, trasformando i suoi data center in autentiche “fabbriche dell’intelligenza”.
Cronologia e fonti
• Annuncio NVIDIA su GB200 NVL72 (GTC 2024): NVIDIA.com
• Comunicati ufficiali di Cohere, IBM e Mistral AI (aprile 2025)
• Dettagli tecnici: MLPerf.org
Consigli di approfondimento
• Cos’è NVIDIA Grace Blackwell
• La piattaforma North di Cohere
• IBM Granite e Watsonx
Abstract – Pro e rischi etici e sociali
Pro:
• Accelera la creazione di agenti AI sofisticati
• Riduce i costi di addestramento per modelli su larga scala
• Favorisce innovazione in ambito enterprise e open source
Rischi:
• Dipendenza infrastrutturale da pochi provider cloud
• Consumo energetico elevato
• Potenziali usi non etici di agenti AI in contesti sensibili
Le implicazioni future potrebbero includere una maggiore autonomia dei sistemi AI, con necessità di regolamentazioni più stringenti e trasparenza nell’impiego di agenti decisionali automatici.
