MongoDB, Inc. ha annunciato la disponibilità generale di MongoDB Atlas Vector Search on Knowledge Bases per Amazon Bedrock, per consentire alle organizzazioni di costruire più facilmente funzionalità di applicazioni AI generative utilizzando modelli di fondazione (FM) completamente gestiti. MongoDB Atlas è la piattaforma di dati per sviluppatori più diffusa al mondo e offre funzionalità di database vettoriale che consentono alle organizzazioni di utilizzare senza problemi i loro dati operativi in tempo reale per alimentare le applicazioni di AI generativa. Amazon Bedrock è un servizio completamente gestito di Amazon Web Services (AWS) che offre una scelta di FM ad alte prestazioni di aziende leader nel settore dell'AI tramite un'unica API, insieme a un'ampia serie di funzionalità di cui le organizzazioni hanno bisogno per costruire applicazioni di AI generativa con sicurezza, privacy e AI responsabile.

I clienti di tutti i settori possono ora utilizzare l'integrazione con i loro dati proprietari per creare più facilmente applicazioni che utilizzano l'AI generativa per completare autonomamente compiti complessi e per fornire risposte aggiornate, accurate e affidabili alle richieste degli utenti finali. La nuova integrazione con Amazon Bedrock consente alle organizzazioni di implementare in modo più rapido e semplice applicazioni di AI generativa su AWS, che possono agire sui dati elaborati da MongoDB Atlas Vector Search per fornire risposte più precise, pertinenti e affidabili. A differenza delle soluzioni aggiuntive che memorizzano solo dati vettoriali, MongoDB Atlas Vector Search potenzia le applicazioni di AI generativa funzionando come database vettoriale altamente performante e scalabile, con l'ulteriore vantaggio di essere integrato con un database operativo distribuito a livello globale, in grado di memorizzare ed elaborare tutti i dati di un'organizzazione.

I clienti possono utilizzare l'integrazione tra MongoDB Atlas Vector Search e Amazon Bedrock per personalizzare privatamente FM come i modelli linguistici di grandi dimensioni (LLM)? di AI21 Labs, Amazon, Anthropic, Cohere, Meta, Mistral AI e Stability AI? con i loro dati operativi in tempo reale, convertendoli in embeddings vettoriali da utilizzare con gli LLM. Utilizzando Agents for Amazon Bedrock per la retrieval-augmented generation (RAG), i clienti possono poi costruire applicazioni con LLM che rispondono alle domande degli utenti con risposte pertinenti e contestualizzate, senza dover codificare manualmente. Ad esempio, un'organizzazione di vendita al dettaglio può sviluppare più facilmente un'applicazione di AI generativa che utilizza agenti autonomi per compiti come l'elaborazione di richieste di inventario in tempo reale o per aiutare a personalizzare i resi e i cambi dei clienti, suggerendo automaticamente la merce in stock in base al feedback del cliente. Le organizzazioni possono anche isolare e scalare i loro carichi di lavoro di AI generativa indipendentemente dal loro database operativo principale con i nodi di ricerca Atlas di MongoDB, per ottimizzare i costi e le prestazioni con tempi di interrogazione fino al 60% più rapidi.

Grazie a funzionalità completamente gestite, questa nuova integrazione consente ai clienti congiunti di AWS e MongoDB di utilizzare in modo sicuro l'AI generativa con i loro dati proprietari, in tutta l'organizzazione, e di realizzare il valore aziendale più rapidamente, con meno spese operative e lavoro manuale.