HPE ospita l'AI Day presso un impianto di produzione all'avanguardia e mette in mostra decenni di leadership nello sviluppo di sistemi AI con raffreddamento a liquido diretto su larga scala
-
Cernusco sul Naviglio – 29 ottobre 2024 – Hewlett Packard Enterprise (NYSE: HPE) annuncia la prima architettura di sistemi di raffreddamento con la tecnologia DLC a liquido diretto 100% fanless ossia senza raffreddamento ad aria per migliorare l'efficienza energetica e i costi delle implementazioni AI su larga scala. L'azienda ha presentato l'innovazione in occasione dell'AI Day, organizzato per i membri della comunità finanziaria presso uno dei suoi impianti di produzione di sistemi AI d'avanguardia. Durante l'evento, l'azienda ha messo in mostra la propria esperienza e leadership nel settore dell’AI per imprese, istituzioni, service provider e sviluppatori di modelli di IA.
Il primo sistema di raffreddamento con liquido diretto 100% fanless del settore
Malgrado i miglioramenti nell'efficienza degli acceleratori di nuova generazione, il consumo di energia continua ad aumentare con l'adozione dell'intelligenza artificiale, rendendo superate le tecniche di raffreddamento tradizionali.
Le organizzazioni che gestiscono grandi carichi di lavoro di intelligenza artificiale dovranno farlo in modo più efficiente. Il modo più efficace per raffreddare i sistemi AI di prossima generazione è il raffreddamento a liquido diretto, di cui HPE è pioniere. Questa tecnologia di raffreddamento determinante ha permesso ai sistemi HPE di dare vita a 7 dei 10 supercomputer in cima alla classifica Green500, dedicata ai supercomputer più efficienti al mondo dal punto di vista energetico.
Sulla base di questa esperienza, l'architettura di raffreddamento con liquido diretto 100% fanless di HPE, presentata oggi, porta i vantaggi in termini di costi e di efficienza energetica di cui già godono le implementazioni di AI a un numero più ampio di organizzazioni che stanno costruendo progetti di AI generativa su larga scala.
“Man mano che le aziende abbracciano le possibilità create dall'AI generativa, devono anche perseguire obiettivi di sostenibilità, combattere l'aumento dei requisiti energetici e ridurre i costi operativi”, ha dichiarato Antonio Neri, presidente e CEO di HPE. “La struttura che abbiamo presentato oggi utilizza esclusivamente il raffreddamento a liquido, offrendo maggiori vantaggi in termini di energia e di efficienza dei costi rispetto alle soluzioni alternative presenti sul mercato. Infatti, questa architettura di raffreddamento diretto a liquido consente di ridurre del 90% il consumo di energia da raffreddamento rispetto ai sistemi tradizionali raffreddati ad aria. L'esperienza di HPE nell'implementazione dei più grandi ambienti IT raffreddati a liquido al mondo e la nostra leadership di mercato che dura da diversi decenni ci mettono in una posizione eccellente per continuare a cogliere la domanda di AI”.
L'architettura del sistema si basa su quattro pilastri:
• Un design di raffreddamento a 8 elementi che include il raffreddamento con liquido per GPU, CPU, server blade completo, storage locale, network fabric, rack/cabinet, pod/cluster e unità di distribuzione del refrigerante (CDU)
• Progettazione di sistemi ad alta densità e ad alte prestazioni, completi di test rigorosi e software di monitoraggio, così come servizi in loco per supportare il successo dell'implementazione di questi sofisticati sistemi di calcolo e raffreddamento
• Progettazione di un integrated network fabric per l'integrazione su larga scala di connessioni a basso costo e a bassa potenza
• Design di sistema aperto per offrire flessibilità di scelta negli acceleratori
L'architettura di raffreddamento diretto a liquido 100% fanless offre vantaggi unici, tra cui una riduzione del 37% della potenza di raffreddamento richiesta per ogni server blade, rispetto al solo raffreddamento diretto a liquido ibrido. In questo modo si riducono i costi delle utility, la produzione di anidride carbonica e il rumore delle ventole dei data center. Inoltre, poiché i sistemi che utilizzano questa architettura possono supportare una maggiore densità di cabinet server, consumano la metà dello spazio.
La leadership di HPE e l'opportunità unica di mercato
In occasione dell'AI Day, Antonio Neri, presidente e CEO; Fidelma Russo, EVP & GM, Hybrid Cloud e CTO di HPE, e Neil MacDonald, EVP & GM, Server, hanno discusso di come il portafoglio HPE comprenda gli elementi fondamentali per mantenere le promesse di networking, hybrid cloud e AI.
Le riflessioni di Neri sull'AI Day di HPE nel suo blog post.