AWS re:Invent NVIDIA Corporation ha annunciato un microservizio di AI generativa che consente alle aziende di collegare modelli linguistici personalizzati di grandi dimensioni ai dati aziendali per offrire risposte altamente precise alle loro applicazioni di AI. NVIDIA NeMo? Retriever - una nuova offerta della famiglia di framework e strumenti NVIDIA NeMo per la costruzione, la personalizzazione e l'implementazione di modelli di AI generativa - aiuta le organizzazioni a potenziare le loro applicazioni di AI generativa con capacità di generazione con retrieval-augmented (RAG) di livello aziendale.

Come microservizio di recupero semantico, NeMo Retriever aiuta le applicazioni di AI generativa a fornire risposte più precise grazie agli algoritmi ottimizzati da NVIDIA. Gli sviluppatori che utilizzano il microservizio possono connettere le loro applicazioni di AI ai dati aziendali ovunque risiedano nei cloud e nei data center. Aggiunge capacità RAG ottimizzate da NVIDIA alle fonderie AI e fa parte della piattaforma software NVIDIA AI Enterprise, disponibile su AWS Marketplace. Cadence, Dropbox, SAP e ServiceNow sono fra i pionieri che collaborano con NVIDIA per costruire capacità RAG pronte per la produzione nelle loro applicazioni e servizi AI generativi personalizzati.

I leader globali migliorano la precisione dell'LLM con NeMo Retriever: Cadence, leader nella progettazione di sistemi elettronici, serve le aziende nei mercati dell'hyperscale computing, delle comunicazioni 5G, dell'automotive, del mobile, dell'aerospaziale, dei consumatori e della sanità. Sta collaborando con NVIDIA per sviluppare funzionalità RAG per applicazioni di AI generativa nella progettazione elettronica industriale. Cracking the Code for Accurate Generative AI Applications: A differenza dei toolkit RAG open-source, NeMo Retriever supporta l'AI generativa pronta per la produzione con modelli commercialmente validi, stabilità delle API, patch di sicurezza e supporto aziendale.

Gli algoritmi ottimizzati da NVIDIA consentono di ottenere risultati di massima precisione nei modelli di incorporazione di Retriever. I modelli di incorporazione ottimizzati catturano le relazioni fra le parole, consentendo agli LLM di elaborare e analizzare i dati testuali. Utilizzando NeMo Retriever, le aziende possono collegare i loro LLM a più fonti di dati e basi di conoscenza, in modo che gli utenti possano interagire facilmente con i dati e ricevere risposte accurate e aggiornate, grazie a semplici prompt conversazionali.

Le aziende che utilizzano applicazioni alimentate da Retriever possono consentire agli utenti di accedere in modo sicuro a informazioni che abbracciano numerose modalità di dati, come testo, PDF, immagini e video. Le aziende possono utilizzare NeMo Retriever per ottenere risultati più precisi con meno formazione, accelerando il time to market e sostenendo l'efficienza energetica nello sviluppo di applicazioni di AI generativa. Distribuzione affidabile, semplice e sicura con NVIDIA AI Enterprise: Le aziende possono distribuire le applicazioni basate su NeMo Retriever per eseguirle durante l'inferenza sul computing accelerato da NVIDIA, praticamente su qualsiasi data center o cloud.

NVIDIA AI Enterprise supporta l'inferenza accelerata ad alte prestazioni con NVIDIA NeMo, NVIDIA Triton Inference Server?, NVIDIA TensorRT?, NVIDIA TensorRT-LLM e altri software NVIDIA AI. Disponibilità: Gli sviluppatori possono registrarsi per l'accesso anticipato a NVIDIA NeMo Retriever.