NVIDIA ha introdotto microservizi di produzione per NVIDIA Avatar Cloud Engine (ACE) che consentono agli sviluppatori di giochi, strumenti e middleware di integrare modelli AI generativi negli avatar digitali dei loro giochi e applicazioni. I nuovi microservizi ACE consentono agli sviluppatori di creare avatar interattivi utilizzando modelli di AI come NVIDIA Omniverse Audio2Face? (A2F), che crea animazioni facciali espressive da sorgenti audio, e il riconoscimento vocale automatico (ASR) di NVIDIA Riva, per la creazione di applicazioni di traduzione e di parlato multilingue personalizzabili che utilizzano l'AI generativa.

Gli sviluppatori che abbracciano ACE includono Charisma.AI, Convai, Inworld, miHoYo, NetEase Games, Ourpalm, Tencent, Ubisoft e UneeQ. I migliori sviluppatori di giochi e avatar interattivi stanno sperimentando come le tecnologie ACE e di AI generativa possano essere utilizzate per trasformare le interazioni tra i giocatori e i personaggi non giocabili (PNG) nei giochi e nelle applicazioni. Storicamente, i PNG sono stati progettati con risposte e animazioni facciali predeterminate.

Questo limitava le interazioni dei giocatori, che tendevano ad essere transazionali, di breve durata e, di conseguenza, saltate dalla maggior parte dei giocatori. Per mostrare come ACE può trasformare le interazioni con gli NPC, NVIDIA ha collaborato con Convaito per ampliare la demo di NVIDIA Kairos, che ha debuttato al Computex, con una serie di nuove funzionalità e l'inclusione di microservizi ACE. Nell'ultima versione di Kairos, Riva ASR e A2F vengono utilizzati in modo estensivo, migliorando l'interattività dei PNG.

Il nuovo framework di Convai consente ai PNG di conversare tra loro e di essere consapevoli degli oggetti, consentendo loro di raccogliere e consegnare gli oggetti nelle aree desiderate. Inoltre, i PNG acquisiscono la capacità di guidare i giocatori verso gli obiettivi e di attraversare i mondi. I microservizi di riconoscimento vocale automatico Audio2Face e Riva sono disponibili da subito.

Gli sviluppatori di avatar interattivi possono incorporare i modelli individualmente nelle loro pipeline di sviluppo.