Pure Storage ha annunciato nuove architetture di riferimento convalidate per l'esecuzione di casi d'uso di AI generativa, fra cui una nuova architettura di riferimento convalidata NVIDIA OVX-ready. In qualità di leader nel settore dell'AI, Pure Storage, in collaborazione con NVIDIA, sta offrendo ai clienti globali un framework comprovato per gestire i requisiti di dati e di calcolo ad alte prestazioni di cui hanno bisogno per realizzare implementazioni AI di successo. Basandosi su questa collaborazione con NVIDIA, Pure Storage offre le tecnologie più recenti per soddisfare la domanda in rapida crescita di AI nelle aziende di oggi.

I nuovi progetti convalidati e le prove di concetto includono: Pipeline Retrieval-Augmented Generation (RAG) per l'inferenza AI: Per migliorare la precisione, la valuta e l'aumento delle capacità di inferenza per i modelli linguistici di grandi dimensioni (LLM), Pure Storage ha creato una pipeline RAG che sfrutta i microservizi NVIDIA NeMo Retriever e le GPU NVIDIA e Pure Storage per l'archiviazione aziendale all-flash. Di conseguenza, Pure Storage accelera il time to insight per le aziende che utilizzano i propri dati interni per l'addestramento dell'AI, garantendo l'uso dei dati più recenti ed eliminando la necessità di riqualificare costantemente gli LLM. Architettura di riferimento certificata NVIDIA OVX Server Storage: Pure Storage ha ottenuto la convalida di OVX Server Storage, offrendo ai clienti aziendali e ai partner di canale architetture di riferimento di storage flessibili, convalidate rispetto a benchmark chiave per fornire una solida base infrastrutturale per soluzioni hardware e software di AI ottimizzate in termini di costi e prestazioni. Questa convalida offre una scelta supplementare ai clienti AI e completa la certificazione di Pure Storage per NVIDIA DGX BasePOD annunciata l'anno scorso.

Sviluppo di RAG verticali: Per accelerare l'adozione di successo dell'AI in tutti i settori verticali, Pure Storage sta creando RAG specifici per i settori verticali in collaborazione con NVIDIA. In primo luogo, Pure Storage ha creato una soluzione RAG per i servizi finanziari per riassumere ed eseguire query su enormi set di dati con una precisione maggiore rispetto agli LLM off-the-shelf. Le istituzioni di servizi finanziari possono ora ottenere una visione più rapida utilizzando l'AI per creare sintesi e analisi istantanee da vari documenti finanziari e altre fonti. Verranno rilasciati altri RAG per il settore sanitario e pubblico.

Mentre Run.AI ottimizza l'utilizzo delle GPU attraverso l'orchestrazione e la pianificazione avanzate, la piattaforma Weights & Biases AI Development consente ai team ML di costruire, valutare e governare il ciclo di vita dello sviluppo del modello. Inoltre, Pure Storage sta lavorando a stretto contatto con partner di servizi e rivenditori focalizzati sull'AI, tra cui ePlus, Insight, WWT e altri, per rendere ancora più operative le implementazioni AI dei clienti comuni. Executive Insight: "Pure Storage ha riconosciuto la crescente domanda di AI fin dall'inizio, offrendo una piattaforma efficiente, affidabile e ad alte prestazioni per le implementazioni AI più avanzate.

Grazie alla collaborazione di lunga data con NVIDIA, le più recenti architetture di riferimento AI convalidate e le prove di concetto di AI generativa emergono come componenti fondamentali per le imprese globali nel dipanare le complessità del puzzle AI".