VMware, Inc. ha annunciato una collaborazione con Intel per estendere gli oltre vent'anni di innovazione delle due aziende, al fine di aiutare i clienti ad accelerare l'adozione dell'intelligenza artificiale (AI) e abilitare l'AI privata ovunque, nei data center, nei cloud pubblici e negli ambienti edge.

VMware e Intel stanno lavorando per offrire uno stack AI convalidato congiuntamente, che consentirà ai clienti di utilizzare l'infrastruttura VMware e Intel e il software open source esistente per semplificare la creazione e l'implementazione di modelli AI. La combinazione di VMware Cloud Foundation e della suite di software AI di Intel, dei processori Intel® Xeon® con acceleratori AI integrati e delle GPU Intel® Max Series, offrirà uno stack AI convalidato e sottoposto a benchmark per la preparazione dei dati, l'addestramento dei modelli, la messa a punto e l'inferenza per accelerare la scoperta scientifica e arricchire i servizi aziendali e di consumo. Oltre 300.000 clienti implementano VMware Cloud a livello globale e il software di virtualizzazione VMware viene distribuito quasi ovunque nell'azienda dove i dati vengono creati, elaborati o consumati.

Questo rende VMware Cloud un mezzo rapido per portare i modelli e i calcoli accelerati dall'AI ovunque si svolga il business. Allo stesso modo, Intel offre soluzioni aperte, scalabili e affidabili a centinaia di migliaia di clienti. L'ubiquità dei prodotti VMware e Intel nelle aziende è una combinazione potente che aumenterà l'accessibilità della scienza dei dati e consentirà alle organizzazioni a livello globale di adottare Private AI, un approccio architettonico che mira a bilanciare i guadagni aziendali dell'AI con le esigenze pratiche di privacy e conformità.

VMware Private AI porta la capacità di calcolo e i modelli di AI dove i dati aziendali vengono creati, elaborati e consumati, sia in un cloud pubblico, sia in un data center aziendale, sia nell'edge, a supporto dei carichi di lavoro AI/ML tradizionali e dell'AI generativa. VMware e Intel consentono la messa a punto di modelli specifici per le attività in pochi minuti o ore e l'inferenza di modelli linguistici di grandi dimensioni a una velocità superiore a quella della comunicazione umana, utilizzando i dati aziendali privati del cliente. VMware e Intel consentono ora di mettere a punto modelli più piccoli ed economici, più facili da aggiornare e mantenere su sistemi virtuali condivisi, che possono poi essere restituiti al pool di risorse IT quando i lavori di AI in batch sono completati.

Casi d'uso come la generazione di codice assistita dall'AI, i sistemi di raccomandazione dei centri di assistenza clienti esperienziali e l'analisi statistica classica delle macchine possono ora essere co-localizzati sugli stessi server general purpose che eseguono l'applicazione. VMware e Intel stanno progettando un'architettura di riferimento che combina la suite di software AI di Intel, i processori Intel® Xeon® e le GPU per Data Center con VMware Cloud Foundation per consentire ai clienti di costruire e distribuire modelli AI privati sull'infrastruttura di cui dispongono, riducendo così il costo totale di proprietà e rispondendo alle preoccupazioni di sostenibilità ambientale. Questa architettura di riferimento VMware Private AI con Intel AI includerà: I processori Intel® Xeon® di quarta generazione con Intel® Advanced Matrix Extensions (Intel® AMX) offrono miglioramenti significativi delle prestazioni out-of-box fino a 10 volte, utilizzando framework e librerie standard del settore, strumenti di produttività data science end-to-end e modelli AI ottimizzati.

Intel® Data Center GPU Max contiene fino a 128 core Xe ed è il blocco fondamentale di GPU Compute di Intel indirizzato ai carichi di lavoro AI più esigenti. Le GPU Intel Serie Max saranno disponibili in diversi fattori di forma per rispondere alle diverse esigenze dei clienti. La suite di software Intel per l'AI è confezionata con software open source end-to-end e componenti di licenza opzionali per consentire agli sviluppatori di eseguire flussi di lavoro completi della pipeline AI, dalla preparazione dei dati alla messa a punto fino all'inferenza, accelerando la costruzione di scaling multi-nodo e la distribuzione dell'AI sull'infrastruttura IT aziendale.

Il framework aperto oneAPI consente lo sviluppo di software indipendente dai processori e dagli acceleratori hardware, permettendo agli sviluppatori di scrivere il codice una sola volta e di eseguirlo su architetture diverse, eliminando la necessità di basi di codice multiple e di linguaggi specializzati. Le estensioni Transformer di Intel e la profonda integrazione di PyTorch Extension con le librerie open source Hugging Face preferite dagli sviluppatori forniscono ricette di ottimizzazione automatizzate per la messa a punto e la compressione dei modelli per un'inferenza efficiente. VMware Cloud Foundation offre un'infrastruttura coerente di classe enterprise, una semplicità operativa e una maggiore sicurezza a VMware Private AI, grazie a funzionalità quali: VMware vSAN Express Storage Architecture, che offre fino al 30% di prestazioni in più e un overhead minimo per funzionalità importanti come la crittografia per i carichi di lavoro di tuning e inferenza AI/ML ad alta intensità di I/O.

vSphere Distributed Resources Scheduler aiuta a utilizzare in modo efficiente la capacità di calcolo libera per l'addestramento dei modelli AI e l'inferenza, sfruttando gli stessi cluster utilizzati da altre applicazioni AI, massimizzando così la capacità e riducendo il TCO. VMware NSX per la creazione di micro segmentazione e di funzionalità avanzate di protezione dalle minacce. Avvio sicuro e Virtual TPM per consentire la riservatezza dei modelli e dei dati.