Red Hat, Inc. ha annunciato Podman AI Lab, un'estensione per Podman Desktop che offre agli sviluppatori la possibilità di costruire, testare ed eseguire applicazioni basate sull'intelligenza artificiale generativa (GenAI) in container, utilizzando un'interfaccia grafica intuitiva sulla propria workstation locale. Ciò contribuisce alla democratizzazione di GenAI e offre agli sviluppatori i vantaggi della convenienza, della semplicità e dell'efficienza dei costi della loro esperienza di sviluppatori locali, mantenendo la proprietà e il controllo dei dati sensibili. La recente ondata di GenAI e di modelli linguistici di grandi dimensioni (LLM) open source ha inaugurato una nuova era dell'informatica che si basa molto sull'uso di applicazioni abilitate dall'AI, e le organizzazioni si stanno muovendo rapidamente per stabilire competenze, processi e strumenti per rimanere rilevanti.

Man mano che l'AI e la scienza dei dati entrano nello sviluppo di applicazioni mainstream, strumenti come Podman AI Lab possono contribuire ad alimentare l'adozione di GenAI da parte degli sviluppatori, per la creazione di applicazioni intelligenti o per migliorare il loro flusso di lavoro utilizzando le capacità di sviluppo potenziate dall'AI. AI Lab dispone di un catalogo di ricette con applicazioni campione che offrono agli sviluppatori un inizio su alcuni dei casi d'uso più comuni per gli LLM, tra cui: Chatbot che simulano la conversazione umana, utilizzando l'AI per comprendere le richieste degli utenti e offrire risposte adeguate. Queste funzionalità sono spesso utilizzate per aumentare le applicazioni che forniscono assistenza clienti self-service o assistenza personale virtuale.

Riassuntori di testo, che offrono capacità versatili in molte applicazioni e settori, dove possono fornire una gestione efficace ed efficiente delle informazioni. Utilizzando questa ricetta, gli sviluppatori possono creare applicazioni per aiutare a creare e curare i contenuti, fare ricerca, aggregare notizie, monitorare i social media e imparare le lingue. Generatori di codice, che consentono agli sviluppatori di concentrarsi sulla progettazione e sulla risoluzione di problemi di livello superiore, automatizzando compiti ripetitivi come la configurazione del progetto e l'integrazione API, o per produrre modelli di codice.

Il rilevamento degli oggetti aiuta a identificare e localizzare gli oggetti all'interno di immagini digitali o fotogrammi video. È un componente fondamentale in diverse applicazioni, tra cui i veicoli autonomi, la gestione dell'inventario al dettaglio, l'agricoltura di precisione e le trasmissioni sportive. La trascrizione audio-testo comporta il processo di trascrizione automatica del linguaggio parlato in testo scritto, facilitando la documentazione, l'accessibilità e l'analisi dei contenuti audio.

Questi esempi forniscono un punto di ingresso per gli sviluppatori, che possono esaminare il codice sorgente per vedere come viene costruita l'applicazione e imparare le migliori pratiche per integrare il loro codice con un modello di intelligenza artificiale. Per gli sviluppatori, i container hanno tradizionalmente fornito un ambiente flessibile, efficiente e coerente per costruire e testare le applicazioni sui loro desktop senza preoccuparsi di conflitti o problemi di compatibilità. Oggi, cercano la stessa semplicità e facilità d'uso per i modelli AI.

Podman AI Lab aiuta a soddisfare questa esigenza dando loro la possibilità di fornire server di inferenza locali, rendendo più facile eseguire un modello localmente, ottenere un endpoint e iniziare a scrivere codice per avvolgere nuove funzionalità intorno al modello. Inoltre, Podman AI Lab include un ambiente di gioco che consente agli utenti di interagire con i modelli e osservare il loro comportamento. Questo può essere utilizzato per testare, sperimentare e sviluppare prototipi e applicazioni con i modelli.

Un prompt intuitivo per l'utente aiuta a esplorare le capacità e l'accuratezza di vari modelli e aiuta a trovare il modello migliore e le impostazioni migliori per il caso d'uso nell'applicazione. Mentre l'AI diventa sempre più onnipresente nelle aziende, Red Hat è all'avanguardia nello sbloccare il potenziale dell'AI per guidare l'innovazione, l'efficienza e il valore attraverso il suo portafoglio di piattaforme AI coerenti, affidabili e complete per il cloud ibrido. Podman AI Lab si basa sulla forza di Podman Desktop, un progetto open source fondato da Red Hat che oggi conta più di un milione di download.

Offre inoltre una stretta integrazione con la modalità immagine per Red Hat Enterprise Linux, un nuovo metodo di distribuzione per la piattaforma Linux aziendale leader a livello mondiale, che fornisce il sistema operativo come immagine container. Questa integrazione consente agli sviluppatori di passare più facilmente dalla prototipazione e dal lavoro con i modelli sul proprio computer portatile alla trasformazione della nuova applicazione infusa di AI in un contenitore portatile e avviabile, che può essere facilmente eseguito ovunque nel cloud ibrido, dal metallo nudo a un'istanza cloud, utilizzando Red Hat OpenShift. Per oltre 30 anni, le tecnologie open source hanno abbinato una rapida innovazione con costi IT notevolmente ridotti e barriere all'innovazione ridotte.

Red Hat è alla guida di questo impegno da quasi altrettanto tempo, dalla fornitura di piattaforme Linux aziendali aperte con RHEL nei primi anni 2000, alla guida di container e Kubernetes come base per il cloud ibrido aperto e il cloud-native computing con Red Hat OpenShift. Questa spinta continua con Red Hat che alimenta le strategie AI/ML nel cloud ibrido aperto, consentendo ai carichi di lavoro AI di essere eseguiti dove risiedono i dati, sia nel datacenter, sia in più cloud pubblici o nell'edge. Oltre ai carichi di lavoro, la visione di Red Hat per l'AI porta l'addestramento e la messa a punto dei modelli lungo questo stesso percorso, per affrontare meglio le limitazioni legate alla sovranità dei dati, alla conformità e all'integrità operativa.

La coerenza offerta dalle piattaforme Red Hat in tutti questi ambienti, indipendentemente dal luogo di esecuzione, è fondamentale per mantenere l'innovazione dell'AI.