NVIDIA ha annunciato due nuovi servizi cloud di AI con modelli linguistici di grandi dimensioni — NVIDIA NeMo Large Language Model Service e NVIDIA BioNeMo LLM Service — che consentono agli sviluppatori di adattare facilmente gli LLM e di implementare applicazioni AI personalizzate per la generazione di contenuti, la riassunzione di testi, i chatbot, lo sviluppo di codici, nonché la struttura proteica e le previsioni di proprietà biomolecolari e altro ancora. Il Servizio NeMo LLM permette agli sviluppatori di personalizzare rapidamente una serie di modelli di base pre-addestrati, utilizzando un metodo di addestramento chiamato apprendimento immediato su un'infrastruttura gestita da NVIDIA. NVIDIA BioNeMo Service è un'interfaccia di programmazione di applicazioni (API) in cloud che espande i casi d'uso di LLM al di là del linguaggio e alle applicazioni scientifiche per accelerare la scoperta di farmaci per le aziende farmaceutiche e biotecnologiche.

Il servizio NeMo LLM aumenta la precisione con l'apprendimento immediato, accelerando le implementazioni; Con il servizio NeMo LLM, gli sviluppatori possono utilizzare i propri dati di formazione per personalizzare modelli di fondazione che vanno da 3 miliardi di parametri fino a Megatron 530B, uno degli LLM più grandi del mondo. Il processo richiede solo pochi minuti o ore, rispetto alle settimane o ai mesi necessari per addestrare un modello da zero. I modelli vengono personalizzati con il prompt learning, che utilizza una tecnica chiamata p-tuning. Ciò consente agli sviluppatori di utilizzare solo poche centinaia di esempi per adattare rapidamente i modelli di fondazione che sono stati originariamente addestrati con miliardi di punti dati.

Il processo di personalizzazione genera token di prompt specifici per le attività, che vengono poi combinati con i modelli di base per offrire una maggiore precisione e risposte più pertinenti per casi d'uso specifici. Gli sviluppatori possono personalizzare per più casi d'uso usando lo stesso modello e generare molti prompt diversi. Una funzione playground offre un'opzione no-code per sperimentare e interagire facilmente con i modelli, aumentando ulteriormente l'efficacia e l'accessibilità degli LLM per i casi d'uso specifici del settore.

Una volta pronti per la distribuzione, i modelli sintonizzati possono essere eseguiti su istanze cloud, su sistemi on-premises o attraverso un'API. Il servizio BioNeMo LLM consente ai ricercatori di sfruttare la potenza dei modelli massivi; Il servizio BioNeMo LLM include due nuovi modelli linguistici BioNeMo per applicazioni di chimica e biologia. Fornisce supporto per i dati proteici, del DNA e biochimici, per aiutare i ricercatori a scoprire modelli e intuizioni nelle sequenze biologiche.

BioNeMo consente ai ricercatori di ampliare la portata del loro lavoro, sfruttando modelli che contengono miliardi di parametri. Questi modelli più grandi possono memorizzare più informazioni sulla struttura delle proteine, sulle relazioni evolutive tra i geni e persino generare nuove biomolecole per applicazioni terapeutiche. L'API cloud fornisce l'accesso a Megatron 530B e ad altri modelli già pronti; Oltre alla messa a punto dei modelli di base, i servizi LLM includono l'opzione di utilizzare modelli già pronti e personalizzati attraverso un'API cloud.

Ciò consente agli sviluppatori di accedere a un'ampia gamma di LLM pre-addestrati, tra cui Megatron 530B. Offre anche l'accesso ai modelli T5 e GPT-3 creati con il framework NVIDIA NeMo Megatron — ora disponibile in beta aperta — per supportare un'ampia gamma di applicazioni e di requisiti di servizio multilingue. I leader del settore automobilistico, dell'informatica, dell'istruzione, dell'assistenza sanitaria, delle telecomunicazioni e di altri settori stanno utilizzando NeMo Megatron per creare servizi pionieristici per i clienti in cinese, inglese, coreano, svedese e altre lingue.