Anomalo collabora con Snowflake per aiutare le imprese a fidarsi dei loro dati
05 gennaio 2022 alle 18:00
Condividi
Anomalo ha annunciato una partnership con Snowflake, la società Data Cloud, per aiutare i clienti a fidarsi dei dati che usano per prendere decisioni e costruire prodotti. La combinazione fornisce ai clienti un modo per monitorare la qualità dei dati in qualsiasi tabella nella piattaforma Snowflake senza scrivere codice, configurare regole o impostare soglie. Anomalo affronta così il problema della qualità dei dati monitorando i dati aziendali e rilevando automaticamente e alla radice i problemi dei dati, permettendo ai team di risolvere qualsiasi intoppo con i loro dati prima di prendere decisioni, eseguire operazioni o alimentare modelli. Anomalo sfrutta l'apprendimento automatico per valutare rapidamente una vasta gamma di set di dati con un input umano minimo. Se lo si desidera, le imprese possono mettere a punto il monitoraggio di Anomalos attraverso la configurazione a basso codice di metriche e regole di convalida. Questo è in contrasto con gli approcci tradizionali al monitoraggio della qualità dei dati che richiedono un lungo lavoro di scrittura delle regole di convalida dei dati o l'impostazione di limiti e soglie. Di conseguenza, i clienti Snowflake possono ora iniziare a monitorare la qualità dei loro dati con Anomalo in meno di cinque minuti. Devono semplicemente collegare la piattaforma di qualità dei dati di Anomalo al loro account Snowflake e selezionare le tabelle che desiderano monitorare. Non è richiesta alcuna ulteriore configurazione o codice.
Snowflake Inc. consente a ogni organizzazione di mobilitare i propri dati con Snowflakes Data Cloud. La piattaforma dell'azienda alimenta il Data Cloud, consentendo ai clienti di consolidare i dati in un'unica fonte di verità, per ottenere intuizioni aziendali significative, applicare l'intelligenza artificiale (AI) per risolvere i problemi aziendali, costruire applicazioni di dati e condividere dati e prodotti di dati. La sua piattaforma supporta una serie di carichi di lavoro, tra cui data warehouse, data lake, data engineering, AI/machine learning (ML), applicazioni, collaborazione, cybersecurity e Unistore. La sua architettura cloud-native è costituita da tre livelli scalabili in modo indipendente ma logicamente integrati tra i servizi di calcolo, storage e cloud. Il livello di calcolo fornisce risorse dedicate per consentire agli utenti di accedere simultaneamente a set di dati comuni per molti casi d'uso con una latenza minima. Il livello di archiviazione ingerisce quantità massicce e varietà di dati strutturati, semi-strutturati e non strutturati per creare un record di dati unificato.