Oracle e NVIDIA hanno annunciato una collaborazione ampliata per offrire soluzioni AI sovrane ai clienti di tutto il mondo. Il cloud distribuito, l'infrastruttura AI e i servizi di AI generativa di Oracle, combinati con l'elaborazione accelerata e il software di AI generativa di NVIDIA, consentono ai governi e alle imprese di implementare fabbriche di AI. Queste fabbriche di AI possono eseguire i servizi cloud a livello locale e all'interno dei locali sicuri di un Paese o di un'organizzazione con una serie di controlli operativi, sostenendo gli obiettivi sovrani di diversificazione e di incremento della crescita economica.

La combinazione della piattaforma AI full-stack di NVIDIA con l'Enterprise AI di Oracle - distribuibile attraverso OCI Dedicated Region, Oracle Alloy, Oracle EU Sovereign Cloud e Oracle Government Cloud - offre ai clienti una soluzione AI che fornisce un maggiore controllo sulle operazioni, sulla posizione e sulla sicurezza per contribuire a sostenere la sovranità digitale.

Le offerte combinate delle aziende possono essere distribuite tramite il cloud pubblico o nel data center del cliente in luoghi specifici, con controlli operativi flessibili. Oracle è l'unico hyperscaler in grado di fornire servizi AI e full cloud a livello locale, ovunque. I servizi e i prezzi OCI sono coerenti tra i vari tipi di implementazione, per semplificare la pianificazione, la portabilità e la gestione.

I servizi cloud di Oracle sfruttano una serie di stack di NVIDIA, fra cui l'infrastruttura di elaborazione accelerata di NVIDIA e la piattaforma software NVIDIA AI Enterprise, compresi i microservizi di inferenza NVIDIA NIM?, annunciati di recente, che sono costruiti sulla base del software di inferenza NVIDIA come NVIDIA TensorRT?, NVIDIA TensorRT-LLM e NVIDIA Triton Inference Server? Per aiutare i clienti a soddisfare le esigenze sempre crescenti dei modelli AI, Oracle prevede di sfruttare la più recente piattaforma di computing NVIDIA Grace Blackwell, annunciata oggi al GTC, attraverso OCI Supercluster e OCI Compute.

OCI Supercluster diventerà significativamente più veloce grazie alle nuove istanze OCI Compute bare metal, alla rete RDMA a bassissima latenza e allo storage ad alte prestazioni. OCI Compute adotterà sia il Superchip NVIDIA GB200 Grace Blackwell che la GPU NVIDIA Blackwell B200 Tensor Core. Il Superchip NVIDIA GB200 Grace?

Blackwell Superchip darà vita a una nuova era del computing. GB200 offre un'inferenza di modelli linguistici di grandi dimensioni (LLM) fino a 30 volte più veloce in tempo reale, un TCO 25 volte inferiore e richiede una quantità di energia 25 volte inferiore rispetto alla precedente generazione di GPU, dando una marcia in più all'addestramento AI, all'elaborazione dei dati e alla progettazione e simulazione ingegneristica. Le GPU NVIDIA Blackwell B200 Tensor Core sono progettate per i carichi di lavoro AI, di analisi dei dati e di calcolo ad alte prestazioni (HPC) più impegnativi.

I microservizi NVIDIA NIM e CUDA-X?, fra cui NVIDIA NeMo Retriever per le implementazioni di generazione aumentata del reperimento (RAG), aiuteranno anche i clienti di OCI a portare maggiore intuizione e precisione ai loro copiloti di AI generativa e ad altri strumenti di produttività, utilizzando i loro stessi dati. Per soddisfare la crescente domanda dei clienti di modelli di AI sempre più complessi, le aziende stanno aggiungendo NVIDIA Grace Blackwell a NVIDIA DGX? Cloud on OCI.

I clienti potranno accedere a nuove istanze basate su GB200 NVL72 attraverso questo servizio di supercomputing co-ingegnerizzato, progettato per una formazione e un'inferenza efficienti dal punto di vista energetico in un'epoca di LLM da trilioni di parametri. Il buildout completo del cluster DGX Cloud includerà più di 20.000 acceleratori GB200 e la rete NVIDIA CX8 InfiniBand, fornendo un'infrastruttura cloud altamente scalabile e performante. Il cluster sarà composto da 72 GPU Blackwell NVL72 e 36 CPU Grace con NVLink di quinta generazione? Disponibilità: Le soluzioni AI sovrane di Oracle e NVIDIA sono disponibili immediatamente.