I vantaggi della fornitura su scala rack di Supermicro

La capacità produttiva mondiale su scala rack di Supermicro sta crescendo in diverse strutture all’avanguardia in tutto il mondo, compresi gli Stati Uniti, Taiwan, i Paesi Bassi e la Malesia. Questo aumento della capacità consente a Supermicro di consegnare ogni mese fino a 5.000 rack completamente integrati e dotati di raffreddamento a liquido, che supportano ordini di tecnologie di intelligenza artificiale (AI) e High Performance Computing (HPC) di ultima generazione.

Secondo Charles Liang, presidente e CEO di Supermicro, fino al 20% dei data center adotterà soluzioni di raffreddamento a liquido in futuro, poiché le CPU e le GPU generano sempre più calore. Con lo sviluppo dell’AI e l’aumento della sua presenza nei data center di tutto il mondo, le soluzioni su scala rack di Supermicro sono estremamente richieste. L’integrazione del raffreddamento a liquido nelle prime fasi del processo di progettazione e implementazione dei data center può ridurre i tempi di consegna e soddisfare le esigenze urgenti di implementazione dell’AI e dei data center hyperscale.

Supermicro offre una vasta gamma di “Golden SKU” che consentono di rispettare gli stretti tempi di consegna richiesti per l’implementazione globale. I clienti potranno beneficiare di tempi di consegna ridotti a livello mondiale, consentendo loro di implementare rapidamente le più recenti applicazioni dell’AI generativa.

Con il recente annuncio della linea di prodotti MGX, Supermicro continua a offrire server ottimizzati per l’AI con i superchip CPU NVIDIA GH200 Grace™ Hopper™ e NVIDIA Grace™. Queste soluzioni, in combinazione con le GPU Intel Data Center MAX, Intel® Gaudi®2 e le serie AMD Instinct™ MI, offrono un’ampia gamma di applicazioni di AI training e inferenza. I server di storage All-Flash di Supermicro dotati di sistemi di storage NVMe E1.S ed E3.S velocizzano l’accesso ai dati per varie applicazioni di AI training e consentono tempi di esecuzione più rapidi. Per l’HPC, il prodotto Supermicro SuperBlade con GPU riduce i tempi di esecuzione e il consumo energetico delle simulazioni ad alta fascia.

Integrando il raffreddamento a liquido nei data center, è possibile ridurre significativamente il PUE (Power Usage Effectiveness) rispetto alle medie attuali del settore. Ciò comporta un significativo risparmio sui costi operativi per l’esecuzione di simulazioni dell’AI generativa o dell’HPC.

Supermicro offre servizi di fornitura su scala rack che consentono ai clienti di avviare rapidamente progetti di implementazione, valutando nel contempo i loro obiettivi aziendali specifici. Inoltre, Supermicro fornisce soluzioni complete per data center IT, comprese la consegna in loco, l’implementazione, l’integrazione e il benchmarking, garantendo un’efficienza operativa ottimale.

F.A.Q.

Quali sono i paesi in cui Supermicro sta espandendo la sua capacità di fornitura su scala rack?
Supermicro sta espandendo la sua capacità di fornitura su scala rack negli Stati Uniti, a Taiwan, nei Paesi Bassi e in Malesia.

Quali sono i vantaggi delle soluzioni con raffreddamento a liquido di Supermicro?
Le soluzioni con raffreddamento a liquido di Supermicro consentono di ridurre significativamente il Power Usage Effectiveness (PUE) dei data center, garantendo una maggiore efficienza operativa e una riduzione dei costi operativi.

Quali sono i chip che Supermicro utilizza nelle sue soluzioni per l’AI?
Supermicro utilizza i superchip CPU NVIDIA GH200 Grace™ Hopper™ e NVIDIA Grace™ nelle sue soluzioni per l’AI.

Quali sono i principali prodotti offerti da Supermicro?
Supermicro offre una vasta gamma di prodotti, tra cui SuperBlade®, server GPU con GPU PCIe, server Universal GPU, storage petascale, Hyper, Hyper-E, BigTwin® e GrandTwin™.

Reference: [Supermicro Press Release](https://www.supermicro.com/en/newsroom/pressreleases/2023/9-november-supermicro-expands-global-rack-scale-supply-capacity/)