Hewlett Packard Enterprise ha annunciato a HPE Discover Barcelona 2023 la prossima serie di offerte AI-native e cloud ibrido per lo sviluppo dell'apprendimento automatico, l'analisi dei dati, l'archiviazione dei file ottimizzata per l'AI, la messa a punto e l'inferenza dell'AI e i servizi professionali. Queste soluzioni riuniscono la leadership di HPE nel cloud ibrido, nel supercomputing e nel software AI/ML per consentire alle organizzazioni di diventare aziende alimentate dall'AI. Il tutto viene fornito sulla base di un'architettura AI-nativa aperta e full-stack, che incorpora una miscela curata di software e infrastrutture progettate specificamente per accelerare il ciclo di vita dell'AI.

Le nuove offerte riducono le barriere dell'IT e offrono soluzioni AI-native full-stack che consentono alle organizzazioni di addestrare, sintonizzare e inferenziare efficacemente i loro modelli AI, dall'edge al cloud. I carichi di lavoro di AI generativa (GenAI) sono intensivi dal punto di vista computazionale e richiedono la capacità di elaborare in modo efficiente quantità massicce di dati. Affinché le aziende possano incorporare efficacemente i modelli GenAI, di deep learning, di computer vision o di machine learning classico nella loro attività, dovranno estendere il loro ambiente cloud-native per includere un approccio AI-native.

La piattaforma cloud HPE GreenLake è strategicamente posizionata per offrire questa evoluzione nell'IT, grazie ad un'architettura AI-native aperta e full-stack leader del settore, che include i seguenti attributi: Pipeline data-first per gestire i dati pubblici e proprietari attraverso l'IT multi-gen. Software di gestione del ciclo di vita dell'AI per accelerare i flussi di lavoro per la formazione, la messa a punto e l'inferenza. Hybrid by design per eseguire l'AI ovunque, dall'edge al cloud, con protezione dei dati.

Interconnessioni ad alte prestazioni per la connettività intelligente e la gestione del traffico per i cluster di grandi dimensioni. DNA di supercomputing integrato nell'intero portafoglio, sostenibile per design, per addestrare i modelli più grandi. Ecosistema aperto per la libertà di scelta senza lock-in HPE collabora con NVIDIA per offrire una soluzione GenAI full-stack di classe enterprise: HPE ha annunciato una collaborazione strategica ampliata con NVIDIA per realizzare una soluzione di computing aziendale per l'AI generativa (GenAI).

La soluzione di sintonizzazione e inferenza dell'AI, co-progettata e pre-configurata, consente alle aziende di qualsiasi dimensione di personalizzare rapidamente i modelli di base utilizzando dati privati e di distribuire le applicazioni di produzione ovunque, dall'edge al cloud. L'offerta elimina la complessità dello sviluppo e dell'implementazione dell'infrastruttura GenAI con una soluzione di sintonizzazione e inferenza AI full-stack di HPE e NVIDIA. HPE accelera l'addestramento dell'AI con una nuova soluzione chiavi in mano alimentata da NVIDIA: HPE ha recentemente annunciato una nuova soluzione di supercomputing per l'AI generativa, progettata per le grandi imprese, gli istituti di ricerca e le organizzazioni governative per l'addestramento e la messa a punto di modelli e lo sviluppo di applicazioni di AI.

La soluzione chiavi in mano migliora il time to value e accelera l'addestramento e la messa a punto dei modelli di AI utilizzando set di dati privati, fornendo la tecnologia di supercomputing e gli strumenti software per creare applicazioni di AI e modelli ML più rapidi. HPE GreenLake for File Storage aumenta la densità delle prestazioni e il throughput per i carichi di lavoro AI più esigenti: HPE GreenLake for File Storage, un'efficiente piattaforma di dati non strutturati all-flash con un'esperienza operativa nel cloud, tiene il passo con i clienti? carichi di lavoro AI su larga scala, che crescono e si evolvono.

I nuovi miglioramenti accelereranno la formazione e la messa a punto dei modelli AI, compresi GenAI e i modelli linguistici di grandi dimensioni (LLM), oltre ad accelerare l'aggregazione e la preparazione dei dati. Il supporto di SSD NVMe da 30 TB e la connettività alla nuova NVIDIA Quantum-2 InfiniBand per l'elaborazione centrata sulla GPU sono disponibili per l'ordinazione da oggi. I prossimi miglioramenti aumenteranno la densità di capacità e il throughput di sette volte* e saranno disponibili all'inizio della prima metà del 2024.

HPE Machine Learning Development Environment Software come servizio gestito su AWS e altri fornitori di cloud:HPE Machine Learning Development Environment Software è ora disponibile come servizio gestito con un'esperienza completa, adattabile e gestita dal cloud per la formazione di modelli AI/ML. Accelera e implementa in modo sicuro le iniziative GenAI in pochi giorni con un servizio gestito flessibile che supporta qualsiasi fase del percorso AI/ML di un'azienda. Miglioramento della formazione e della messa a punto dei modelli nel software HPE Ezmeral Unified Analytics grazie alla profonda integrazione con il software HPE Machine Learning Development Environment.

Ottimizzazione delle allocazioni delle GPU NVIDIA tra i carichi di lavoro e gli utenti con le capacità GPU-aware di HPE Ezmeral Unified Analytics Software. Accesso a integrazioni estese di terze parti con Whylogs per l'osservabilità dei modelli e Voltron Data per le query accelerate dalle GPU. Taiga Cloud, una società di Northern Data Group, ha stretto una partnership con HPE per alimentare i servizi cloud utilizzando i supercomputer HPE Cray XD.

Taiga Cloud offre ora l'accesso a oltre 27.000 GPU NVIDIA H100, A100 e NVIDIA RTX A6000, collegate tramite le DPU NVIDIA BlueField e la piattaforma NVIDIA Quantum-2 InfiniBand. L'intensità dei dati dei carichi di lavoro di AI generativa richiede un approccio diverso al cloud computing, che consente a un singolo carico di lavoro di elaborare quantità massicce di dati. La soluzione di computing aziendale per l'AI generativa sarà ordinabile nel primo trimestre del 2004.