NVIDIA ha annunciato NVIDIA DGX(TM) Cloud, un servizio di supercomputing AI che offre alle aziende un accesso immediato all'infrastruttura e al software necessari per addestrare modelli avanzati per l'AI generativa e altre applicazioni rivoluzionarie. DGX Cloud offre cluster dedicati di supercomputing NVIDIA DGX AI, abbinati al software NVIDIA AI. Il servizio consente a ogni azienda di accedere al proprio supercomputer AI utilizzando un semplice browser web, eliminando la complessità dell'acquisizione, dell'implementazione e della gestione dell'infrastruttura on-premise.

Le imprese noleggiano i cluster DGX Cloud su base mensile, il che garantisce che possano scalare in modo rapido e semplice lo sviluppo di grandi carichi di lavoro di formazione multi-nodo, senza dover aspettare le risorse di calcolo accelerato che sono spesso molto richieste. ServiceNow sta usando DGX Cloud con i supercomputer NVIDIA DGX in sede per un supercomputing AI ibrido-cloud flessibile e scalabile che aiuta ad alimentare la sua ricerca AI su modelli linguistici di grandi dimensioni, generazione di codice e analisi causale. ServiceNow è anche co-sostenitore del progetto BigCode, un'iniziativa di AI generativa open-science responsabile, che viene addestrata sul framework Megatron-LM di NVIDIA.

Aprire un browser al supercomputing e al software NVIDIA AI Le imprese gestiscono e monitorano i carichi di lavoro di formazione di DGX Cloud usando il software NVIDIA Base Command(TM) Platform, che offre un'esperienza utente senza soluzione di continuità su DGX Cloud, oltre che sui supercomputer NVIDIA DGX in sede. Usando Base Command Platform, i clienti possono abbinare i loro carichi di lavoro alla giusta quantità e al tipo di infrastruttura DGX necessaria per ogni lavoro. DGX Cloud include NVIDIA AI Enterprise, il livello software della piattaforma NVIDIA AI, che offre framework AI end-to-end e modelli pre-addestrati per accelerare le pipeline di data science e semplificare lo sviluppo e la distribuzione dell'AI di produzione.

I nuovi modelli pre-addestrati, i framework ottimizzati e le librerie software di data science accelerate, disponibili in NVIDIA AI Enterprise 3.1 rilasciata oggi, offrono agli sviluppatori un'ulteriore spinta verso i loro progetti di AI. Ogni istanza di DGX Cloud dispone di otto GPU Tensor Core NVIDIA H100 o A100 da 80 GB per un totale di 640 GB di memoria GPU per nodo. Un fabric ad alte prestazioni e a bassa latenza costruito con NVIDIA Networking garantisce la scalabilità dei carichi di lavoro su cluster di sistemi interconnessi, consentendo a più istanze di agire come un'unica enorme GPU per soddisfare i requisiti di performance della formazione AI avanzata.

Lo storage ad alte prestazioni è integrato in DGX Cloud per fornire una soluzione completa per il supercomputing AI. DGX Cloud offre il supporto degli esperti NVIDIA lungo tutta la pipeline di sviluppo dell'AI. I clienti possono collaborare direttamente con gli ingegneri NVIDIA per ottimizzare i loro modelli e risolvere rapidamente le sfide di sviluppo in un'ampia gamma di casi d'uso del settore.

La disponibilità delle istanze DGX Cloud parte da 36.999 dollari per istanza al mese. Le organizzazioni possono contattare il proprio rappresentante dell'NVIDIA Partner Network per ulteriori dettagli.