Meta Platforms, proprietaria di Facebook, prevede di distribuire nei suoi centri dati quest'anno una nuova versione di un chip personalizzato volto a supportare la sua spinta all'intelligenza artificiale (AI), secondo un documento interno dell'azienda visto da Reuters giovedì.

Il chip, una seconda generazione di una linea di silicio interna che Meta ha annunciato l'anno scorso, potrebbe contribuire a ridurre la dipendenza di Meta dai chip Nvidia che dominano il mercato e a controllare i costi crescenti associati all'esecuzione di carichi di lavoro AI, mentre corre per lanciare prodotti AI.

L'azienda di social media più grande al mondo si è data da fare per aumentare la sua capacità di calcolo per i prodotti di AI generativa ad alta potenza che sta spingendo nelle app Facebook, Instagram e WhatsApp e nei dispositivi hardware come i suoi smartglasses Ray-Ban, spendendo miliardi di dollari per accumulare arsenali di chip specializzati e riconfigurare i centri dati per ospitarli.

Alla scala in cui opera Meta, un'implementazione di successo del proprio chip potrebbe potenzialmente ridurre di centinaia di milioni di dollari i costi energetici annuali e di miliardi i costi di acquisto dei chip, secondo Dylan Patel, fondatore del gruppo di ricerca sul silicio SemiAnalysis.

I chip, l'infrastruttura e l'energia necessari per eseguire le applicazioni di AI sono diventati una gigantesca voragine di investimenti per le aziende tecnologiche, che in qualche misura hanno annullato i guadagni ottenuti nella corsa all'entusiasmo per la tecnologia.

Un portavoce di Meta ha confermato il piano di mettere in produzione il chip aggiornato nel 2024, affermando che lavorerà in coordinamento con le centinaia di migliaia di unità di elaborazione grafica (GPU) off-the-shelf - i chip di riferimento per l'AI - che l'azienda sta acquistando.

"Riteniamo che i nostri acceleratori sviluppati internamente siano altamente complementari alle GPU disponibili in commercio per offrire il mix ottimale di prestazioni ed efficienza sui carichi di lavoro specifici di Meta", ha dichiarato il portavoce in un comunicato.

Il mese scorso il CEO di Meta, Mark Zuckerberg, ha dichiarato che l'azienda prevede di avere entro la fine dell'anno circa 350.000 processori di punta "H100" di Nvidia, che produce le GPU più ricercate utilizzate per l'AI. In combinazione con altri fornitori, Meta avrebbe accumulato la capacità di calcolo equivalente a 600.000 H100 in totale, ha dichiarato.

L'implementazione del proprio chip come parte di questo piano è una svolta positiva per il progetto di silicio AI interno di Meta, dopo la decisione dei dirigenti nel 2022 di staccare la spina alla prima iterazione del chip.

L'azienda ha invece optato per l'acquisto di miliardi di dollari di GPU di Nvidia, che detiene un quasi monopolio su un processo di AI chiamato addestramento, che prevede l'alimentazione di enormi serie di dati nei modelli per insegnare loro come eseguire i compiti.

Il nuovo chip, chiamato internamente "Artemis", come il suo predecessore, può eseguire solo un processo noto come inferenza, in cui i modelli sono chiamati a usare i loro algoritmi per emettere giudizi di classificazione e generare risposte alle richieste degli utenti.

L'anno scorso Reuters ha riferito che Meta sta lavorando anche a un chip più ambizioso che, come le GPU, sarebbe in grado di eseguire sia l'addestramento che l'inferenza.

L'azienda di Menlo Park, California, ha condiviso i dettagli della prima generazione del suo programma Meta Training and Inference Accelerator (MTIA) lo scorso anno. L'annuncio ritraeva quella versione del chip come un'opportunità di apprendimento.

Nonostante questi primi inciampi, un chip di inferenza potrebbe essere molto più efficiente nell'elaborazione dei modelli di raccomandazione di Meta rispetto ai processori Nvidia, assetati di energia, secondo Patel.

"Si spendono molti soldi ed energia che potrebbero essere risparmiati", ha detto. (Relazioni di Katie Paul a New York e di Stephen Nellis e Max A. Cherney a San Francisco; Redazione di Kenneth Li e Mark Porter)