Confluent, Inc. ha annunciato il lancio del primo trimestre 22 di Confluent, che include nuove aggiunte al più grande portafoglio di connettori per lo streaming dei dati completamente gestiti, nuovi controlli per scalare in modo economico i cluster Apache Kafka a throughput massiccio e una nuova funzione per aiutare a mantenere la qualità dei dati affidabili in ambienti globali. Queste innovazioni contribuiscono a consentire uno streaming dei dati semplice, scalabile e affidabile in tutto il business, in modo che qualsiasi organizzazione possa fornire le operazioni in tempo reale e le esperienze dei clienti necessarie per avere successo in un mondo digital-first. Tuttavia, per molte organizzazioni, i dati in tempo reale rimangono fuori portata. I dati vivono in silos, intrappolati all'interno di diversi sistemi e applicazioni perché le integrazioni richiedono mesi per essere costruite e risorse significative da gestire. Inoltre, adattare la capacità di streaming per soddisfare le esigenze di business in costante evoluzione è un processo complesso che può comportare una spesa eccessiva per le infrastrutture. Infine, garantire la qualità e la conformità dei dati su scala globale è un'impresa tecnica complicata, che in genere richiede uno stretto coordinamento tra i team di esperti Kafka. I nuovi connettori di Confluent includono Azure Synapse Analytics, Amazon DynamoDB, Databricks Delta Lake, Google BigTable e Redis per una maggiore copertura delle fonti e destinazioni di dati più popolari. Disponibile solo su Confluent Cloud, il portafoglio Confluents di oltre 50 connettori completamente gestiti aiuta le organizzazioni a costruire potenti applicazioni di streaming e migliorare la portabilità dei dati. Questi connettori, progettati con la profonda esperienza Kafka di Confluents, forniscono alle organizzazioni un percorso semplice per modernizzare i data warehouse, i database e i laghi di dati con pipeline di dati in tempo reale: Connettori per data warehouse: Snowflake, Google BigQuery, Azure Synapse Analytics, Amazon Redshift Connettori per database: MongoDB Atlas, PostgreSQL, MySQL, Microsoft SQL Server, Azure Cosmos DB, Amazon DynamoDB, Oracle Database, Redis, Google BigTable Connettori per laghi di dati: Amazon S3, Google Cloud Storage, Azure Blob Storage, Azure Data Lake Storage Gen 2, Databricks Delta Lake Per semplificare la visibilità in tempo reale sulla salute di applicazioni e sistemi, Confluent ha annunciato integrazioni di prima classe con Datadog e Prometheus. Con pochi clic, gli operatori hanno una visibilità più profonda, end-to-end su Confluent Cloud all'interno degli strumenti di monitoraggio che già utilizzano. Ciò fornisce un mezzo più facile per identificare, risolvere ed evitare qualsiasi problema che possa verificarsi, restituendo tempo prezioso per tutto il resto che il loro lavoro richiede. Per garantire che i servizi rimangano sempre disponibili, molte aziende sono costrette a fornire una capacità eccessiva per i loro cluster Kafka, pagando un prezzo elevato per l'infrastruttura in eccesso che spesso rimane inutilizzata. Confluent risolve questo problema comune con cluster dedicati che possono essere forniti su richiesta con pochi clic e includono controlli self-service per l'aggiunta e la rimozione di capacità su scala di GBps+ throughput. La capacità è facile da regolare in qualsiasi momento attraverso l'interfaccia utente Confluent Cloud, CLI o API. Con il bilanciamento automatico dei dati, questi cluster ottimizzano costantemente il posizionamento dei dati per bilanciare il carico senza sforzi aggiuntivi. Inoltre, le garanzie di capacità minima proteggono i cluster dall'essere ridotti a un punto inferiore a quello necessario per supportare il traffico attivo. Insieme alla nuova API Load Metric di Confluents, le organizzazioni possono prendere decisioni informate su quando espandere e quando ridurre la capacità con una visione in tempo reale dell'utilizzo dei loro cluster. Con questo nuovo livello di scalabilità elastica, le aziende possono eseguire i loro carichi di lavoro a più alto throughput con alta disponibilità, semplicità operativa ed efficienza dei costi. I controlli globali sulla qualità dei dati sono fondamentali per mantenere un'implementazione di Kafka altamente compatibile e adatta all'uso standardizzato a lungo termine in tutta l'organizzazione. Con Schema Linking, le aziende ora hanno un modo semplice per mantenere flussi di dati affidabili attraverso ambienti cloud e ibridi con schemi condivisi che si sincronizzano in tempo reale. Accoppiato con Cluster Linking, gli schemi sono condivisi ovunque siano necessari, fornendo un mezzo semplice per mantenere un'elevata integrità dei dati durante l'implementazione di casi d'uso tra cui la condivisione globale dei dati, le migrazioni dei cluster e i preparativi per il failover in tempo reale in caso di disaster recovery.