Red Hat, Inc. ha annunciato l'imminente supporto dell'integrazione dei microservizi NVIDIA NIM su Red Hat OpenShift AI, per consentire l'inferenza ottimizzata di decine di modelli di intelligenza artificiale (AI) supportati da una piattaforma cloud ibrida AI/ML coerente e open source. Le organizzazioni potranno utilizzare Red Hat OpenShift AI con NVIDIA NIM - una serie di microservizi di inferenza di facile utilizzo inclusi come parte della piattaforma software NVIDIA AI Enterprise per accelerare la consegna di applicazioni di AI generativa (GenAI) per un time to value più rapido. Il supporto di NVIDIA NIM su Red Hat OpenShift AI si basa sull'ottimizzazione esistente per NVIDIA AI Enterprise sulle tecnologie cloud ibride aperte di Red Hat, fra cui Red Hat Enterprise Linux e Red Hat OpenShift.

Come parte di questa ultima collaborazione, NVIDIA abiliterà l'interoperabilità di NIM con KServe, un progetto open source basato su Kubernetes per i casi d'uso di AI altamente scalabili e un collaboratore core upstream di Red Hat OpenShift AI. Questo aiuterà ad alimentare l'interoperabilità continua per i microservizi NVIDIA NIM all'interno delle future iterazioni di Red Hat OpenShift AI. Questa integrazione consente alle aziende di aumentare la produttività con le capacità di GenAI, come l'espansione del servizio clienti con gli assistenti virtuali, la riepilogazione dei casi per i ticket IT e l'accelerazione delle operazioni aziendali con i copiloti specifici del dominio.

Utilizzando Red Hat OpenShift AI con NVIDIA NIM, le organizzazioni possono beneficiare di: Percorso semplificato di integrazione per distribuire NVIDIA NIM in un workflow comune insieme ad altre implementazioni di AI per una maggiore coerenza e una gestione più semplice. Scalabilità e monitoraggio integrati per le implementazioni di NVIDIA NIM in coordinamento con altre implementazioni di modelli AI in ambienti cloud ibridi. Sicurezza, supporto e stabilità di livello enterprise per garantire una transizione fluida dal prototipo alla produzione per le aziende che gestiscono il loro business sull'AI.

I microservizi NVIDIA NIM sono progettati per accelerare la distribuzione di GenAI nelle aziende. Supportando un'ampia gamma di modelli di AI, compresi i modelli della comunità open-source, i modelli di NVIDIA AI Foundation e i modelli personalizzati, NIM offre un'inferenza di AI senza soluzione di continuità e scalabile in sede o nel cloud attraverso interfacce di programmazione di applicazioni (API) standard del settore.