Il Centro di Supercomputing Leibniz (LRZ), Cerebras Systems e Hewlett Packard Enterprise (HPE) hanno annunciato lo sviluppo e la consegna congiunta di un nuovo sistema dotato di tecnologie AI di nuova generazione per accelerare in modo significativo la ricerca scientifica e l'innovazione nell'AI per la Baviera. Il nuovo sistema è finanziato dallo Stato Libero di Baviera attraverso l'Agenda Hightech, un programma dedicato al rafforzamento dell'ecosistema tecnologico in Baviera per alimentare la missione della regione di diventare un hotspot internazionale dell'AI. Il nuovo sistema è anche una risorsa aggiuntiva per il centro nazionale di supercomputing della Germania’e fa parte del Future Computing Program di LRZ’che rappresenta un portafoglio di architetture di calcolo eterogenee tra CPU, GPU, FPGS e ASIC. Offre l'AI di prossima generazione con funzioni di calcolo scalabili e accelerate: Il nuovo sistema è costruito appositamente per elaborare grandi insiemi di dati per affrontare ricerche scientifiche complesse. Il sistema è composto dal server HPE Superdome Flex e dal sistema Cerebras CS-2, il che lo rende la prima soluzione in Europa che sfrutta il sistema Cerebras CS-2. Il server HPE Superdome Flex offre una soluzione modulare e scalabile per soddisfare le richieste di elaborazione e dispone di funzionalità specializzate per l'elaborazione in-memory di grandi dimensioni, necessaria per elaborare grandi volumi di dati. Inoltre, le capacità specifiche di elaborazione pre e post-dati di HPE Superdome Flex server’per l'addestramento e l'inferenza di modelli AI sono ideali per supportare il sistema Cerebras CS-2, che offre le prestazioni di deep learning di 100 unità di elaborazione grafica (GPU), con la facilità di programmazione di un singolo nodo. Alimentato dal processore mai costruito – il Cerebras Wafer-Scale Engine 2 (WSE-2), che è 56 volte più grande del concorrente più vicino – il CS-2 offre più core di calcolo ottimizzati per l'AI, una memoria più veloce e una maggiore larghezza di banda del tessuto rispetto a qualsiasi altro processore di apprendimento profondo esistente. Cerebras CS-2 offre il chip AI con 850.00 core di calcolo: I metodi di AI e l'apprendimento automatico hanno bisogno di potenza di calcolo. Attualmente, la complessità delle reti neurali utilizzate per analizzare grandi volumi di dati raddoppia nel giro di pochi mesi. Tuttavia, finora tali applicazioni sono state eseguite principalmente su processori generici o grafici (CPU e GPU). Offrire un sistema e un software potente per lo sviluppo dell'AI: Per supportare il sistema Cerebras CS-2, il server HPE Superdome Flex offre capacità di memoria di grandi dimensioni e una scalabilità di calcolo senza precedenti per elaborare i progetti di machine learning massicci e ad alta intensità di dati a cui il sistema Cerebras CS-2 si rivolge. Il server HPE Superdome Flex gestisce e pianifica i lavori in base alle esigenze dell'applicazione AI, consente l'accesso al cloud e gestisce i dataset di ricerca più grandi. Inoltre, il server HPE Superdome Flex include uno stack software con programmi per costruire procedure e modelli di AI. Oltre ai carichi di lavoro AI, le tecnologie combinate di HPE e Cerebras saranno prese in considerazione anche per carichi di lavoro HPC più tradizionali, a supporto di esigenze di modellazione e simulazione più grandi e ad alta intensità di memoria.