Ceva, Inc. ha annunciato di aver ampliato la sua famiglia Ceva-NeuPro di NPU Edge AI con l'introduzione delle NPU Ceva-NeuPro-Nano. Queste NPU altamente efficienti e autosufficienti offrono la potenza, le prestazioni e l'efficienza dei costi necessarie alle aziende di semiconduttori e agli OEM per integrare i modelli TinyML nei loro SoC per prodotti consumer, industriali e AIoT generici. TinyML si riferisce all'implementazione di modelli di apprendimento automatico su dispositivi a basso consumo e con risorse limitate, per portare la potenza dell'AI nell'Internet of Things (IoT).

Spinto dalla crescente domanda di soluzioni AI efficienti e specializzate nei dispositivi IoT, il mercato di TinyML sta crescendo rapidamente. Secondo la società di ricerca ABI Research, entro il 2030 oltre il 40% delle spedizioni TinyML sarà alimentato da hardware TinyML dedicato piuttosto che da MCU multiuso. Affrontando le sfide specifiche delle prestazioni di TinyML, le NPU Ceva-NeuPro-Nano mirano a rendere l'AI onnipresente, economica e pratica per un'ampia gamma di casi d'uso, che spaziano dalla voce alla visione, dalla manutenzione predittiva al rilevamento della salute nelle applicazioni IoT industriali e di consumo.

La nuova architettura Ceva-NeuPro-Nano Embedded AI NPU è completamente programmabile ed esegue in modo efficiente le reti neurali, l'estrazione delle caratteristiche, il codice di controllo e il codice DSP, e supporta i tipi di dati e gli operatori di apprendimento automatico più avanzati, tra cui il calcolo nativo della trasformata, l'accelerazione della sparsità e la quantizzazione veloce. Questa architettura ottimizzata e autosufficiente consente alle NPU Ceva-NeuPro-Nano di offrire un'efficienza energetica superiore, con un'impronta di silicio più piccola e prestazioni ottimali rispetto alle soluzioni di processore esistenti utilizzate per i carichi di lavoro TinyML, che utilizzano una combinazione di CPU o DSP con architetture basate su acceleratori AI. Inoltre, la tecnologia di compressione AI Ceva-NetSqueeze elabora direttamente i pesi dei modelli compressi, senza la necessità di una fase intermedia di decompressione.

Ciò consente alle NPU Ceva-NeuPro-Nano di ottenere una riduzione dell'impronta di memoria fino all'80%, risolvendo un collo di bottiglia chiave che impedisce l'ampia adozione dei processori AIoT. La NPU Ceva-NeuPro-Nano è disponibile in due configurazioni: Ceva-NPN32 con 32 MAC int8 e Ceva-NPN64 con 64 MAC int8, entrambe con Ceva-NetSqueeze per l'elaborazione diretta dei pesi dei modelli compressi. Il Ceva-NPN32 è altamente ottimizzato per la maggior parte dei carichi di lavoro di TinyML, che riguardano i casi d'uso di voce, audio, rilevamento di oggetti e rilevamento di anomalie.

Ceva-NPN64 offre un'accelerazione delle prestazioni di 2 volte, utilizzando la sparsità dei pesi, una maggiore larghezza di banda della memoria, un maggior numero di MAC e il supporto per i pesi a 4 bit, per offrire prestazioni migliori per i casi d'uso dell'intelligenza artificiale on-device più complessi, come la classificazione degli oggetti, il rilevamento dei volti, il riconoscimento vocale, il monitoraggio della salute e altri. Le NPU vengono fornite con un SDK AI completo - Ceva-NeuPro Studio - che è uno stack AI unificato che offre una serie di strumenti comuni a tutta la famiglia di NPU Ceva-NeuPro, supportando i framework AI aperti, tra cui TensorFlow Lite per microcontrollori (TFLM) e microTVM (µTVM). Caratteristiche principali di Ceva-NeuPro-Nano: Architettura NPU flessibile e scalabile: Completamente programmabile per eseguire in modo efficiente le reti neurali, l'estrazione di caratteristiche, il codice di controllo e il codice DSP; prestazioni scalabili per progettazione per soddisfare un'ampia gamma di casi d'uso; configurazioni MAC con un massimo di 64 MAC int8 per ciclo; architettura a prova di futuro che supporta i tipi di dati e gli operatori ML più avanzati; supporto di interi da 4 bit a 32 bit; calcolo nativo del trasformatore; prestazioni ML ottimali per tutti i casi d'uso, grazie a meccanismi avanzati; accelerazione della sparsità; accelerazione di tipi di attivazione non lineari; quantizzazione veloce; NPU Edge con requisiti di memoria ultrabassi: Il design altamente efficiente a singolo core per il calcolo NN, l'estrazione delle caratteristiche, il codice di controllo e il codice DSP elimina la necessità di un MCU compagno per questi compiti computazionalmente intensivi; riduzione dell'ingombro in memoria fino all'80% grazie a Ceva-NetSqueeze, che elabora direttamente i pesi dei modelli compressi senza la necessità di una fase intermedia di decompressione; Energia ultra-bassa ottenuta grazie a tecniche innovative di ottimizzazione energetica: Regolazione automatica dell'energia al volo; riduzione drastica dell'energia e della larghezza di banda grazie alla distillazione dei calcoli con l'accelerazione della sparsità dei pesi; SDK AI completo e semplice da usare: Ceva-NeuPro Studio fornisce uno stack AI unificato, con un'esperienza semplice di click-and-run, per tutte le NPU Ceva-NeuPro, dal nuovo Ceva-NeuPro-Nano al potente Ceva-NeuPro-M; Time to market veloce, accelerando lo sviluppo e l'implementazione del software; Ottimizzato per lavorare senza problemi con i principali framework di inferenza AI aperti, tra cui TFLM e µTVM; Zoo di modelli TinyML preaddestrati e ottimizzati che coprono i casi d'uso della voce, della visione e del rilevamento; Flessibilità per adattarsi a nuovi modelli, applicazioni ed esigenze di mercato; Portafoglio completo di librerie runtime ottimizzate e di software applicativo specifico off-the-shelf.