NetApp ha annunciato nuove capacità che massimizzano il potenziale dei progetti di intelligenza artificiale generativa (Gen AI) e creano un vantaggio competitivo per gli utenti. I clienti possono ora portare i loro progetti di AI al livello successivo, combinando l'infrastruttura di dati intelligente di NetApp con il calcolo ad alte prestazioni, il networking e il software di NVIDIA. L'AI ha catturato l'attenzione globale per il suo potenziale di automatizzazione di compiti noiosi, di scoperta di nuove intuizioni e di innovazione di prodotto.

Quasi tre aziende su quattro stanno già utilizzando la Gen AI, secondo il rapporto NetApp 2023 Data Complexity. Per sbloccare il potenziale della Gen AI, le organizzazioni hanno bisogno di un accesso sicuro e ad alte prestazioni ai dati distribuiti in ambienti ibridi e multicloud complessi. NetApp vanta una lunga esperienza di successo nel supportare l'AI con soluzioni che offrono semplicità di gestione ovunque vivano i dati, forniscono prestazioni elevate senza richiedere nuovi silos infrastrutturali e forniscono dati affidabili e sicuri per guidare l'AI responsabile.

Per supportare le aziende che sfruttano la Gen AI per migliorare le loro operazioni e i loro processi decisionali strategici, NetApp ha rilasciato aggiornamenti alle sue funzionalità di infrastruttura dati intelligente, tra cui: NetApp AIPod??è l'infrastruttura convergente ottimizzata per l'AI di NetApp per i progetti di AI a più alta priorità delle organizzazioni, tra cui la formazione e l'inferenza. NetApp AIPod powered by NVIDIA DGX è ora una soluzione certificata NVIDIA DGX BasePOD che utilizza i sistemi NVIDIA DGX H100 integrati con i sistemi flash a capacità accessibile NetApp AFF C-Series per raggiungere un nuovo livello di costo/prestazioni ottimizzando lo spazio del rack e la sostenibilità. NetApp A IPod powered by NVIDIA DGX continua a supportare anche i sistemi NVIDIA DGX A100. Le nuove architetture di riferimento di FlexPod for AI estendono la soluzione di infrastruttura convergente leader di NetApp e Cisco.

FlexPod for AI ora supporta la piattaforma software NVIDIA AI Enterprise. FlexPod for AI può ora essere esteso per sfruttare RedHat OpenShift e SuSE Rancher. Sono state aggiunte nuove funzionalità di scaling e di benchmarking per supportare le applicazioni sempre più impegnative per le GPU.

I clienti possono utilizzare queste nuove soluzioni FlexPod come un progetto end-to-end per progettare, distribuire e gestire in modo efficiente la piattaforma FlexPod per i casi d'uso AI. NetApp è ora validato per i sistemi NVIDIA OVX. L'archiviazione NetApp combinata con i sistemi di computing NVIDIA OVX può aiutare a semplificare le implementazioni di AI aziendali, compresi i carichi di lavoro di fine-tuning e di inferenza dei modelli. Alimentate dalle GPU NVIDIA L40S, le soluzioni NVIDIA OVX convalidate sono disponibili presso i principali vendor di server e includono il software NVIDIA AI Enterprise insieme a NVIDIA Quantum-2 InfiniBand o NVIDIA Spectrum-X Ethernet e alle DPU NVIDIA BlueField-3.

NetApp è uno dei primi partner a completare questa nuova validazione dello storage per NVIDIA OVX. Per rafforzare ulteriormente la sua leadership nell'AI, NetApp annuncia anche nuove e rivoluzionarie capacità di cyber-resilienza, fra cui uno dei primi utilizzi dell'AI/ML incorporato nello storage per combattere il ransomware. Questi aggiornamenti illustrano ulteriormente la volontà di NetApp di evolversi e di portare ai clienti innovazioni che sbloccano il pieno potenziale dell'AI". NetApp offre un approccio unificato all'infrastruttura e alla gestione dei dati che elimina i silos di dati, porta prestazioni migliorate e protezione affidabile dei dati alle soluzioni chiavi in mano dei clienti per l'AI e aiuta i clienti ad accelerare il tempo di raggiungimento dei risultati per i loro progetti di AI.