La capacità produttiva mondiale su scala rack di Supermicro sta crescendo in diverse strutture all’avanguardia in tutto il mondo, compresi gli Stati Uniti, Taiwan, i Paesi Bassi e la Malesia. Questo aumento della capacità consente a Supermicro di consegnare ogni mese fino a 5.000 rack completamente integrati e dotati di raffreddamento a liquido, che supportano ordini di tecnologie di intelligenza artificiale (AI) e High Performance Computing (HPC) di ultima generazione.
Secondo Charles Liang, presidente e CEO di Supermicro, fino al 20% dei data center adotterà soluzioni di raffreddamento a liquido in futuro, poiché le CPU e le GPU generano sempre più calore. Con lo sviluppo dell’AI e l’aumento della sua presenza nei data center di tutto il mondo, le soluzioni su scala rack di Supermicro sono estremamente richieste. L’integrazione del raffreddamento a liquido nelle prime fasi del processo di progettazione e implementazione dei data center può ridurre i tempi di consegna e soddisfare le esigenze urgenti di implementazione dell’AI e dei data center hyperscale.
Supermicro offre una vasta gamma di “Golden SKU” che consentono di rispettare gli stretti tempi di consegna richiesti per l’implementazione globale. I clienti potranno beneficiare di tempi di consegna ridotti a livello mondiale, consentendo loro di implementare rapidamente le più recenti applicazioni dell’AI generativa.
Con il recente annuncio della linea di prodotti MGX, Supermicro continua a offrire server ottimizzati per l’AI con i superchip CPU NVIDIA GH200 Grace™ Hopper™ e NVIDIA Grace™. Queste soluzioni, in combinazione con le GPU Intel Data Center MAX, Intel® Gaudi®2 e le serie AMD Instinct™ MI, offrono un’ampia gamma di applicazioni di AI training e inferenza. I server di storage All-Flash di Supermicro dotati di sistemi di storage NVMe E1.S ed E3.S velocizzano l’accesso ai dati per varie applicazioni di AI training e consentono tempi di esecuzione più rapidi. Per l’HPC, il prodotto Supermicro SuperBlade con GPU riduce i tempi di esecuzione e il consumo energetico delle simulazioni ad alta fascia.
Integrando il raffreddamento a liquido nei data center, è possibile ridurre significativamente il PUE (Power Usage Effectiveness) rispetto alle medie attuali del settore. Ciò comporta un significativo risparmio sui costi operativi per l’esecuzione di simulazioni dell’AI generativa o dell’HPC.
Supermicro offre servizi di fornitura su scala rack che consentono ai clienti di avviare rapidamente progetti di implementazione, valutando nel contempo i loro obiettivi aziendali specifici. Inoltre, Supermicro fornisce soluzioni complete per data center IT, comprese la consegna in loco, l’implementazione, l’integrazione e il benchmarking, garantendo un’efficienza operativa ottimale.
F.A.Q.
Quali sono i paesi in cui Supermicro sta espandendo la sua capacità di fornitura su scala rack?
Supermicro sta espandendo la sua capacità di fornitura su scala rack negli Stati Uniti, a Taiwan, nei Paesi Bassi e in Malesia.
Quali sono i vantaggi delle soluzioni con raffreddamento a liquido di Supermicro?
Le soluzioni con raffreddamento a liquido di Supermicro consentono di ridurre significativamente il Power Usage Effectiveness (PUE) dei data center, garantendo una maggiore efficienza operativa e una riduzione dei costi operativi.
Quali sono i chip che Supermicro utilizza nelle sue soluzioni per l’AI?
Supermicro utilizza i superchip CPU NVIDIA GH200 Grace™ Hopper™ e NVIDIA Grace™ nelle sue soluzioni per l’AI.
Quali sono i principali prodotti offerti da Supermicro?
Supermicro offre una vasta gamma di prodotti, tra cui SuperBlade®, server GPU con GPU PCIe, server Universal GPU, storage petascale, Hyper, Hyper-E, BigTwin® e GrandTwin™.
Reference: [Supermicro Press Release](https://www.supermicro.com/en/newsroom/pressreleases/2023/9-november-supermicro-expands-global-rack-scale-supply-capacity/)