Lunedì Nvidia ha aggiunto nuove funzionalità al suo chip di punta per l'intelligenza artificiale, affermando che la nuova offerta inizierà ad essere distribuita il prossimo anno con Amazon.com, Alphabet's Google e Oracle.

L'H200, come viene chiamato il chip, supererà l'attuale chip top H100 di Nvidia. L'aggiornamento principale consiste in una maggiore quantità di memoria ad alta larghezza di banda, una delle parti più costose del chip che definisce la quantità di dati che può elaborare rapidamente.

Nvidia domina il mercato dei chip AI e alimenta il servizio ChatGPT di OpenAI e molti servizi simili di AI generativa che rispondono alle domande con una scrittura simile a quella umana. L'aggiunta di più memoria ad alta larghezza di banda e di una connessione più veloce agli elementi di elaborazione del chip significa che tali servizi saranno in grado di fornire una risposta più rapidamente.

L'H200 ha 141 gigabyte di memoria ad alta larghezza di banda, rispetto agli 80 gigabyte del precedente H100. Nvidia non ha rivelato i suoi fornitori per la memoria del nuovo chip, ma Micron Technology ha detto a settembre che stava lavorando per diventare un fornitore di Nvidia.

Nvidia acquista anche la memoria dalla coreana SK Hynix, che il mese scorso ha dichiarato che i chip AI stanno contribuendo a rilanciare le vendite.

Mercoledì Nvidia ha dichiarato che Amazon Web Services, Google Cloud, Microsoft Azure e Oracle Cloud Infrastructure saranno tra i primi fornitori di servizi cloud ad offrire l'accesso ai chip H200, oltre ai fornitori di cloud AI specializzati CoreWeave, Lambda e Vultr. (Servizio di Stephen Nellis a San Francisco. Redazione di Sam Holmes).