Amazon Web Services, Inc. (AWS), un'azienda di Amazon.com, Inc. ha annunciato un'espansione della loro collaborazione strategica per offrire l'infrastruttura, il software e i servizi più avanzati per dare forza alle innovazioni di intelligenza artificiale (AI) generativa dei clienti. Le aziende riuniranno il meglio delle tecnologie NVIDIA e AWS - dai più recenti sistemi multi-nodo di NVIDIA con GPU, CPU e software AI di nuova generazione, alla virtualizzazione e alla sicurezza avanzate di AWS Nitro System, all'interconnessione Elastic Fabric Adapter (EFA) e alla scalabilità di UltraCluster - che sono ideali per l'addestramento dei modelli di base e la creazione di applicazioni di AI generativa. L'ampliamento della collaborazione si basa su una relazione di lunga data che ha alimentato l'era dell'AI generativa, offrendo ai primi pionieri dell'apprendimento automatico (ML) le prestazioni di calcolo necessarie per far progredire lo stato dell'arte di queste tecnologie.

Nell'ambito della collaborazione ampliata per potenziare l'IA generativa in tutti i settori: AWS sarà il primo cloud provider a portare nel cloud i superchip NVIDIA GH200 Grace Hopper con la nuova tecnologia NVLink multi-nodo. La piattaforma multi-nodo NVIDIA GH200 NVL32 collega 32 Superchip Grace Hopper con le tecnologie NVIDIA NVLink e NVSwitch in un'unica istanza. La piattaforma sarà disponibile su istanze di Amazon Elastic Compute Cloud (Amazon EC2) collegate con il potente networking di Amazon (EFA), supportato dalla virtualizzazione avanzata (AWS Nitro System) e dal clustering iper-scala (Amazon EC2 UltraClusters), consentendo ai clienti congiunti di scalare fino a migliaia di Superchip GH200.

Per alimentare lo sviluppo, l'addestramento e l'inferenza degli LLM più grandi, le istanze AWS P5e saranno dotate delle più recenti GPU H200 di NVIDIA che offrono 141 GB di memoria GPU HBM3e, che è 1,8 volte più grande e 1,4 volte più veloce delle GPU H100. Questo aumento della memoria della GPU, insieme a un massimo di 3.200 Gbps di rete EFA abilitata dal Sistema Nitro di AWS, consentirà ai clienti di continuare a costruire, addestrare e distribuire i loro modelli all'avanguardia su AWS. Per offrire soluzioni convenienti ed efficienti dal punto di vista energetico per i carichi di lavoro video, AI e grafici, AWS ha annunciato nuove istanze Amazon EC2 G6e con GPU NVIDIA L40S e istanze G6 alimentate da GPU L4.

Le nuove offerte possono aiutare startup, imprese e ricercatori a soddisfare le loro esigenze di AI e di grafica ad alta fedeltà. Le istanze G6e sono costruite per gestire carichi di lavoro complessi come l'AI generativa e le applicazioni digital twin. Utilizzando NVIDIA Omniverse, è possibile sviluppare, contestualizzare e migliorare le simulazioni 3D fotorealistiche utilizzando i dati in tempo reale di servizi come AWS IoT TwinMaker, chatbot intelligenti, assistenti, ricerca e riepilogo.

Amazon Robotics e gli Amazon Fulfillment Center potranno integrare i gemelli digitali costruiti con NVIDIA Omniverse e AWS IoT TwinMaker per ottimizzare la progettazione e il flusso del magazzino, addestrare assistenti robotici più intelligenti e migliorare le consegne ai clienti. Le GPU L40S offrono fino a 1,45 petaflops di prestazioni FP8 e dispongono di core Ray Tracing che offrono fino a 209teraflops di prestazioni ray-tracing. Le GPU L4 presenti nelle istanze G6 offriranno una soluzione a basso costo ed efficiente dal punto di vista energetico per l'implementazione di modelli AI per l'elaborazione del linguaggio naturale, la traduzione linguistica, l'analisi di video e immagini AI, il riconoscimento vocale e la personalizzazione.

Le GPU L40S accelerano anche i carichi di lavoro grafici, come la creazione e i dati.