Micron Technology ha avviato la produzione di massa dei suoi semiconduttori di memoria ad alta larghezza di banda (HBM) da utilizzare nell'ultimo chip di Nvidia per l'intelligenza artificiale, facendo salire le sue azioni di oltre il 5% lunedì.

La HBM3E (High Bandwidth Memory 3E) consumerà il 30% in meno di energia rispetto alle offerte rivali, ha dichiarato Micron, e potrebbe contribuire a sfruttare l'impennata della domanda di chip che alimentano le applicazioni di intelligenza artificiale generativa.

Nvidia utilizzerà il chip nelle sue unità di elaborazione grafica H200 di prossima generazione, che si prevede inizieranno ad essere distribuite nel secondo trimestre e supereranno l'attuale chip H100, che ha alimentato una massiccia impennata dei ricavi del produttore di chip.

"Penso che questa sia un'enorme opportunità per Micron, soprattutto perché la popolarità dei chip HBM sembra aumentare solo per le applicazioni AI", ha dichiarato Anshel Sag, analista di Moor Insights & Strategy.

La domanda di chip HBM, un mercato guidato dal fornitore di Nvidia SK Hynix, per l'uso nell'AI ha anche aumentato le speranze degli investitori che Micron sia in grado di superare una lenta ripresa negli altri mercati.

Dato che "SK Hynix ha già esaurito il suo inventario 2024, avere un'altra fonte che rifornisce il mercato può aiutare i produttori di GPU come AMD, Intel o NVIDIA a scalare la loro produzione di GPU", ha aggiunto Sag.

L'HBM è uno dei prodotti più redditizi di Micron, in parte grazie alla complessità tecnica della sua costruzione.

In precedenza, l'azienda aveva dichiarato di aspettarsi "diverse centinaia di milioni" di dollari di ricavi HBM nell'anno fiscale 2024 e una crescita continua nel 2025.