Arteris, Inc. ha annunciato che NeuReality ha implementato l'IP di interconnessione Arteris FlexNoC come parte del server-on-a-chip di inferenza indirizzabile alla rete NR1, per offrire prestazioni elevate e miglioramenti dirompenti in termini di costi e consumi per il calcolo dell'apprendimento automatico e profondo nei suoi prodotti di inferenza AI. Questa integrazione è architettata in un NoC a 8 gerarchie con una larghezza di banda aggregata di 4,5 TB/sec, che soddisfa i requisiti di bassa latenza per l'esecuzione di applicazioni AI su scala e a costi inferiori. Il server di inferenza di NeuReality si rivolge all'IA generativa, ai modelli linguistici di grandi dimensioni (LLM) e ad altri carichi di lavoro di IA.

L'innovativo server-on-a-chip NR1 di NeuReality è la prima Network Addressable Processing Unit (NAPU), un dispositivo hardware ottimizzato per il flusso di lavoro con unità di elaborazione specializzate, rete nativa e capacità di virtualizzazione. Offre una rete AI-over-fabric nativa, compreso l'offload completo della pipeline AI e funzionalità di hypervisor AI basate su hardware. La capacità di scaricare CPU, GPU e persino acceleratori di apprendimento profondo su più chip NR1 è ciò che rende possibile al server di inferenza di NeuReality di offrire effettivamente prestazioni fino a 10 volte superiori con un consumo energetico inferiore e a una frazione del costo del suo server di inferenza.