Amazon Web Services, Inc. ha annunciato quattro nuove innovazioni per Amazon SageMaker AI, per aiutare i clienti a iniziare più velocemente con modelli popolari disponibili pubblicamente, a massimizzare l'efficienza dell'addestramento, a ridurre i costi e a utilizzare gli strumenti preferiti per accelerare lo sviluppo di modelli di intelligenza artificiale generativa (AI). Amazon SageMaker AI è un servizio end-to-end utilizzato da centinaia di migliaia di clienti per aiutare a costruire, addestrare e distribuire modelli AI per qualsiasi caso d'uso, con infrastrutture, strumenti e flussi di lavoro completamente gestiti. Tre nuove potenti aggiunte ad Amazon SageMaker HyperPod rendono più facile per i clienti iniziare rapidamente l'addestramento di alcuni dei modelli più popolari oggi disponibili pubblicamente, risparmiare settimane di tempo per l'addestramento dei modelli con piani di addestramento flessibili e massimizzare l'utilizzo delle risorse di calcolo per ridurre i costi fino al 40%.
I clienti di SageMaker possono ora scoprire, distribuire e utilizzare in modo facile e sicuro le applicazioni di sviluppo di AI generativa e machine learning (ML) completamente gestite dai partner di AWS, come Comet, Deepchecks, Fiddler AI e Lakera, direttamente in SageMaker, offrendo loro la flessibilità di scegliere gli strumenti che funzionano meglio per loro. Articul8, Commonwealth Bank of Australia, Fidelity, Hippocratic AI, Luma AI, NatWest, NinjaTech AI, OpenBabylon, Perplexity, Ping Identity, Salesforce e Thomson Reuters sono tra i clienti che utilizzano le nuove funzionalità di SageMaker per accelerare lo sviluppo di modelli AI generativi. SageMaker HyperPod: l'infrastruttura preferita per addestrare i modelli di AI generativaCon l'avvento dell'AI generativa, il processo di costruzione, addestramento e distribuzione dei modelli di ML è diventato significativamente più difficile, richiedendo una profonda esperienza nell'AI, l'accesso a enormi quantità di dati e la creazione e la gestione di grandi cluster di calcolo.
Inoltre, i clienti devono sviluppare codice specializzato per distribuire l'addestramento sui cluster, ispezionare e ottimizzare continuamente il loro modello e risolvere manualmente i problemi hardware, il tutto cercando di gestire tempi e costi. Ecco perché AWS ha creato SageMaker HyperPod, che aiuta i clienti a scalare in modo efficiente lo sviluppo di modelli di AI generativa su migliaia di acceleratori di AI, riducendo i tempi di formazione dei modelli di base fino al 40%. Le startup leader come Writer, Luma AI e Perplexity, e le grandi aziende come Thomson Reuters e Salesforce, stanno accelerando lo sviluppo di modelli grazie a SageMaker HyperPod.
Anche Amazon ha utilizzato SageMaker HyperPod per addestrare i nuovi modelli Amazon Nova, riducendo i costi di addestramento, migliorando le prestazioni dell'infrastruttura di addestramento e risparmiando mesi di lavoro manuale che sarebbero stati spesi per impostare il cluster e gestire il processo end-to-end. Ora, un numero ancora maggiore di organizzazioni desidera perfezionare i modelli popolari disponibili pubblicamente o addestrare i propri modelli specializzati per trasformare le proprie aziende e applicazioni con l'AI generativa. Ecco perché SageMaker HyperPod continua a innovare per rendere più facile, più veloce e più conveniente per i clienti costruire, addestrare e distribuire questi modelli su scala con nuove innovazioni, tra cui: Nuove ricette aiutano i clienti a iniziare più velocemente: Molti clienti desiderano sfruttare i modelli popolari disponibili pubblicamente, come Llama e Mistral, che possono essere personalizzati per un caso d'uso specifico utilizzando i dati della loro organizzazione.
Tuttavia, possono essere necessarie settimane di test iterativi per ottimizzare le prestazioni di addestramento, tra cui la sperimentazione di diversi algoritmi, l'affinamento attento dei parametri, l'osservazione dell'impatto sull'addestramento, il debug dei problemi e il benchmarking delle prestazioni. Per aiutare i clienti a iniziare in pochi minuti, SageMaker HyperPod offre ora l'accesso a più di 30 ricette di addestramento di modelli curati per alcuni dei modelli più popolari oggi disponibili pubblicamente, tra cui Llama 3.2 90B, Llama 3.1 405B e Mistral 8x22B. Queste ricette semplificano notevolmente il processo di avvio per i clienti, caricando automaticamente i set di dati di addestramento, applicando tecniche di addestramento distribuito e configurando il sistema per un checkpoint efficiente e il ripristino da guasti dell'infrastruttura.
Ciò consente ai clienti di tutti i livelli di competenza di ottenere prestazioni migliori per la formazione di modelli sull'infrastruttura AWS fin dall'inizio, eliminando settimane di valutazioni e test iterativi. I clienti possono sfogliare le ricette di formazione disponibili tramite il repository GitHub di SageMaker, regolare i parametri in base alle loro esigenze di personalizzazione e distribuire in pochi minuti. Inoltre, con una semplice modifica di una riga, i clienti possono passare senza problemi tra istanze basate su GPU o Trainium per ottimizzare ulteriormente le prestazioni dei prezzi.
I ricercatori di Salesforce cercavano un modo per iniziare rapidamente la formazione e la messa a punto dei modelli di base, senza doversi preoccupare dell'infrastruttura e senza dover passare settimane a ottimizzare lo stack di formazione per ogni nuovo modello. Con le ricette HyperPod di Amazon SageMaker, possono condurre una prototipazione rapida durante la personalizzazione dei modelli di base. Ora, i team di ricerca AI di Salesforce sono in grado di iniziare in pochi minuti con una serie di ricette di pre-addestramento e di messa a punto, e possono rendere operativi i modelli di base con prestazioni elevate.