DigitalOcean Holdings, Inc. ha annunciato la disponibilità virtualizzata delle GPU NVIDIA H100 Tensor Core sulla sua piattaforma Paperspace. Paperspace, fornitore leader di infrastrutture cloud per applicazioni altamente scalabili accelerate dalle GPU, offre ora l'accesso a una delle GPU più potenti del mercato. Questo offre alle startup e alle aziende digitali in crescita un'infrastruttura fondamentale per lo sviluppo di applicazioni di intelligenza artificiale/apprendimento automatico (AI/ML) di nuova generazione.

Grazie a questa offerta e ad altri recenti miglioramenti, DigitalOcean continua a semplificare il cloud computing e a fornire una soluzione end-to-end conveniente per lo sviluppo, la distribuzione e la scalabilità dei modelli AI. L'aumento dell'interesse per l'accelerazione dell'AI computing da parte delle aziende che vogliono elevare le loro capacità nell'AI/ML ha alimentato la domanda di GPU NVIDIA H100. Grazie alle loro prestazioni eccezionali, questi acceleratori riducono in modo significativo i periodi di iterazione dell'addestramento e i tempi di risposta dell'inferenza del modello, rendendoli ideali per l'esecuzione di carichi di lavoro come l'addestramento di modelli AI su larga scala e l'elaborazione ad alte prestazioni (HPC).

Le GPU NVIDIA H100 possono essere accedute su richiesta o riservate per un limite di tempo specifico, consentendo ai clienti di selezionare il modello di consumo più conveniente per le loro esigenze aziendali. I clienti possono accedere a queste GPU NVIDIA H100 come macchine individuali o come cluster, offrendo versatilità per casi d'uso che vanno dalla formazione di modelli multi-nodo a servizi di inferenza complessi. DigitalOcean ha anche apportato miglioramenti significativi all'infrastruttura di rete sottostante, offrendo ora velocità di interconnessione di 3,2 TBps per consentire prestazioni ottimali agli utenti che utilizzano una o più di queste configurazioni a otto chip.

Oltre a fornire potenza di calcolo, DigitalOcean si impegna a garantire alle aziende di AI/ML un'esperienza senza soluzione di continuità nell'implementazione dei loro modelli in produzione, grazie alle distribuzioni a gradiente. Questi aggiornamenti rendono più facile che mai per gli utenti della piattaforma Paperspace distribuire e scalare le moderne applicazioni AI, tra cui: Esperienza di registro container semplificata e più flessibile: L'esperienza del registro dei container è stata ridisegnata, rendendo più facile per le aziende in rapida evoluzione iniziare con un'implementazione di successo. Gli utenti possono ora collegarsi rapidamente ai registri container più diffusi, con una convalida e una gestione semplificate dei container.

Sicurezza migliorata per gli endpoint di distribuzione: Quando si crea un deployment a gradiente, i clienti possono mantenere gli endpoint pubblici o passare a quelli sicuri con la possibilità di gestire le autorizzazioni. Questi endpoint di distribuzione fortificati per Paperspace offrono una maggiore sicurezza, consentendo un migliore controllo dell'accesso.