Il produttore francese di apparecchiature elettriche Schneider Electric sta collaborando con Nvidia per sviluppare progetti di sistemi di raffreddamento per data center da utilizzare nei nuovi data center di intelligenza artificiale, ha dichiarato mercoledì.

I progetti di Schneider saranno utilizzati nei centri dati che utilizzano il server di punta di Nvidia contenente 72 dei suoi chip AI più potenti, in uscita all'inizio del prossimo anno. Non sono stati resi noti i dettagli finanziari dell'accordo.

Questi server consumeranno fino a 132 kilowatt di energia per rack di server e le versioni più potenti richiederanno un raffreddamento a liquido per funzionare.

La decisione di Nvidia di passare la maggior parte della sua linea di chip al raffreddamento a liquido ha stimolato una raffica di costruzioni e riconfigurazioni di data center per accogliere i nuovi chip.

Aparna Prabhakar, vicepresidente senior della divisione secure power di Schneider, ha detto che l'azienda ha collaborato con Nvidia per progettare una gamma di opzioni di sistemi di raffreddamento che possono essere scalati verso l'alto o verso il basso, a seconda del numero di server Nvidia installati e della quantità di energia consumata.

I piani saranno venduti alle aziende di cloud computing o ai clienti dei data center.

"Si tratta di un lavoro pesante da entrambe le parti", ha detto Prabhakar a proposito dello sforzo ingegneristico. "Noi ci occupiamo di tutto ciò che è esterno ai server, mentre Nvidia lavora su ciò che è interno al server".

Schneider, che il mese scorso ha sostituito il suo CEO, ha lavorato per espandere la sua attività di data center AI e nel 2023 ha firmato un accordo con Compass Datacenters per fornire 3 miliardi di dollari di apparecchiature elettriche in cinque anni.