NVIDIA ha svelato il suo nuovissimo acceleratore GPU PCIe A100 che ora viene fornito con un’opzione di raffreddamento a liquido per una maggiore efficienza energetica.
NVIDIA aggiunge le GPU PCIe A100 raffreddate a liquido per un’elaborazione sostenibile ed efficiente
Comunicato stampa: Nato nell’era dei mainframe, il raffreddamento a liquido sta maturando nell’era dell’IA. Ora è ampiamente utilizzato all’interno dei supercomputer più veloci del mondo in una forma moderna chiamata raffreddamento a chip diretto. Il raffreddamento a liquido è il passo successivo calcolo accelerato per le GPU NVIDIA che offrono già un’efficienza energetica fino a 20 volte migliore sull’inferenza dell’IA e sui lavori di elaborazione ad alte prestazioni rispetto alle CPU.
Efficienza attraverso l’accelerazione
Se passassi tutti i server solo CPU che eseguono AI e HPC in tutto il mondo a sistemi con accelerazione GPU, potresti risparmiare ben 11 trilioni di wattora di energia all’anno. È come risparmiare l’energia che più di 1,5 milioni di case consumano in un anno.
Oggi, NVIDIA aumenta i suoi sforzi per la sostenibilità con il rilascio della nostra prima GPU PCIe per data center che utilizza il raffreddamento a chip diretto. Equinix sta qualificando il GPU A100 80GB PCIe raffreddata a liquido da utilizzare nei suoi data center come parte di un approccio globale al raffreddamento sostenibile e alla cattura del calore. Le GPU stanno campionando ora e saranno generalmente disponibili quest’estate.
Risparmiare acqua ed energia
“Questo segna la prima GPU raffreddata a liquido introdotta nel nostro laboratorio, ed è entusiasmante per noi perché i nostri clienti sono affamati di modi sostenibili per sfruttare l’IA”, ha affermato Smith.
Gli operatori dei data center mirano a eliminare i refrigeratori che fanno evaporare milioni di galloni d’acqua all’anno per raffreddare l’aria all’interno dei data center. Il raffreddamento a liquido promette sistemi che riciclano piccole quantità di fluidi in sistemi chiusi focalizzati su punti caldi chiave.
Stesse prestazioni, meno potenza
In test separati, sia Equinix che NVIDIA hanno scoperto che un data center che utilizza il raffreddamento a liquido può eseguire gli stessi carichi di lavoro di una struttura raffreddata ad aria consumando circa il 30% in meno di energia. NVIDIA stima che il data center raffreddato a liquido potrebbe raggiungere 1,15 PUE, molto al di sotto di 1,6 per il suo cugino raffreddato ad aria.
Anche i data center raffreddati a liquido possono racchiudere il doppio dell’elaborazione nello stesso spazio. Questo perché le GPU A100 utilizzano un solo slot PCIe; le GPU A100 raffreddate ad aria ne riempiono due
Almeno una dozzina di produttori di sistemi prevede di incorporare queste GPU nelle loro offerte entro la fine dell’anno. Loro includono AsusASRock Rack, Foxconn Industrial Internet, GIGABYTE, H3C, Inspur, Inventec, Nettrix, QCT, Supermicro, Wiwynn e xFusione.
Una tendenza globale
In Asia, Europa e Stati Uniti sono in sospeso regolamenti che stabiliscono standard di efficienza energetica. Questo motiva anche le banche e altri grandi operatori di data center a valutare il raffreddamento a liquido. E la tecnologia non si limita ai data center. Le automobili e altri sistemi ne hanno bisogno per raffreddare sistemi ad alte prestazioni incorporati in spazi ristretti.
La strada per la sostenibilità
“Questo è l’inizio di un viaggio”, ha detto Smith del debutto degli acceleratori tradizionali raffreddati a liquido.
In effetti, prevediamo di seguire la scheda PCIe A100 con una versione l’anno prossimo utilizzando il GPU H100 Tensor Core basato sul Architettura NVIDIA Hopper. Prevediamo di supportare il raffreddamento a liquido nelle nostre GPU per data center ad alte prestazioni e nelle nostre piattaforme NVIDIA HGX per il prossimo futuro.
Per una rapida adozione, le odierne GPU raffreddate a liquido offrono le stesse prestazioni con meno energia. In futuro, prevediamo che queste schede forniranno un’opzione per ottenere più prestazioni con la stessa energia, qualcosa che gli utenti dicono di volere.