Supermicro推支持NVIDIA Blackwell和​ HGX H100/H200的机柜级即插即用液冷AI SuperCluster

时间:2024-06-07来源:

Supermicro, Inc.NASDAQSMCIAI、云端、储存和 5G/边缘领域的全方位IT解决方案制造商,推出可立即部署式液冷型AI数据中心。此数据中心专为云端原生解决方案而设计,透过SuperCluster加速各界企业对生成式AI的运用,并针对NVIDIA AI Enterprise软件平台优化,适用于生成式AI的开发与部署。透过Supermicro4U液冷技术,NVIDIA近期推出的Blackwell GPU在单一GPU上充分发挥20 PetaFLOPSAI效能,且与较早的GPU相比,能提供4倍的AI训练效能与30倍的推论效能,并节省额外成本。配合此率先上市的策略,Supermicro近期推出基于NVIDIA Blackwell架构的完善产品系列,支持新型NVIDIA HGXTM B100B200GB200 Grace Blackwell Superchip

Supermicro总裁暨执行长梁见后表示:「Supermicro 在打造与部署具有机柜级液冷技术的AI解决方案方面持续领先业界。数据中心的液冷配置设计可几近免费,并透过能持续降低用电量的优势为客户提供额外价值。我们的解决方案针对NVIDIA AI Enterprise软件优化,满足各行各业的客户需求,并提供世界规模级效率的全球制造产能。因此我们得以缩短交付时间,更快提供搭配NVIDIA HGX H100H200,以及即将推出的B100B200GB200解决方案的可立即使用型液冷或气冷运算丛集。从液冷板到CDU乃至冷却塔,我们的机柜级全方位液冷解决方案最大可以降低数据中心40%的持续用电量。」

生成式AI SuperCluster与NVIDIA AI Enterprise、NIM微服务整合,并透过大规模可扩展的运算单元,提供立即性投资报酬率效益和更低的AI运行成本,进而简化AI以利快速部署

在台北国际计算机展(COMPUTEX 2024)上,Supermicro展示了即将推出,并针对NVIDIA Blackwell GPU优化的系统,包括基于NVIDIA HGX B20010U气冷系统和4U液冷系统。此外,Supermicro也将提供8U气冷型NVIDIA HGX B100系统、NVIDIA GB200 NVL72机柜(具有72个透过NVIDIA NVLink 交换器互连的GPU)与新型 NVIDIA MGX™系统(支持NVIDIA H200 NVL PCIe GPU与最新发表的NVIDIA GB200 NVL2架构)。

NVIDIA创办人暨执行长黄仁勋表示:「生成式AI正在推动整个运算堆栈的重置,新的数据中心将会透过GPU进行运算加速,并针对AI优化。Supermicro设计了顶尖的NVIDIA加速运算和网络解决方案,使价值数兆美元的全球数据中心能够针对AI时代优化。」

随着大型语言模型(Large Language ModelLLM)的快速发展以及MetaLlama-3MistralMixtral 8x22B等开源模型不断推出,企业更容易取得并使用当今最先进的AI模型。简化AI基础设施并以最具成本效益的方式提供存取能力,对于支持目前的急速AI变革至关重要。Supermicro云端原生AI SuperCluster使实时存取的云端便利性和可移植性之间得以连结,并透过NVIDIA AI Enterprise让任何规模的AI项目从评估测试阶段无缝顺畅地进行到实际作业阶段。这提供了能在任何地方运行并安全管理数据的灵活性,包括自架系统或地端大型数据中心。

随着各界企业急速进行生成式AI的实验性使用,SupermicroNVIDIA密切合作,确保无缝且灵活地从AI应用的实验和评估试行推动至作业部署和大规模数据中心AI。此顺畅流程是藉由NVIDIA AI Enterprise软件平台的机柜、丛集级优化而实现,能使从初步探索至可扩展AI落地的过程更流畅无阻。

托管服务涉及基础架构的选择、数据共享和生成式AI策略控管。NVIDIA NIM微服务作为 NVIDIA AI Enterprise的一部分,可在无缺陷情况下提供托管生成式AI和开源部署优势。其多功能推论运行环境透过微服务,可加速从开源模型到NVIDIA基础模型等各类型生成式AI的部署。此外,NVIDIA NeMoTM可实现透过数据庋用、进阶自定义和检索增强生成(Retrieval-Augmented GenerationRAG)的客制模型开发,以实现企业级解决方案。与搭配NVIDIA AI EnterpriseSupermicro SuperCluster整合后,NVIDIA NIM能为可扩展、加速型生成式AI作业的部署提供最快途径。

Supermicro目前的生成式AI SuperCluster产品包括:

       液冷型Supermicro NVIDIA HGX H100/H200 SuperCluster,具有256H100/H200 GPU,为5个机柜规模的可扩展运算单元(包括 1 个专用网络机柜)

       气冷型Supermicro NVIDIA HGX H100/H200 SuperCluster,具有256HGX H100/H200 GPU,为9个机柜规模的可扩展运算单元(包括1个专用网络机柜)

       Supermicro NVIDIA MGX GH200 SuperCluster,具有256GH200 GraceTM Hopper Superchip,为9个机柜规模的可扩展运算单元(包括1个专用网络机柜)

SupermicroSuperCluster支持NVIDIA AI Enterprise,其中包括NVIDIA NIM微服务和NVIDIA NeMo平台,能实现端对端生成式AI客制,并针对NVIDIA Quantum-2 InfiniBand以及具有每GPU 400Gb/s网速的新型NVIDIA Spectrum-X以太网络平台优化,可扩展到具有数万个GPU的大型运算丛集。

Supermicro即将推出的SuperCluster包括:

●       Supermicro NVIDIA HGX B200 SuperCluster,液冷型

●       Supermicro NVIDIA HGX B100/B200 SuperCluster,气冷型

●       Supermicro NVIDIA GB200 NVL72 或 NVL36 SuperCluster,液冷型

SupermicroSuperCluster解决方案针对LLM训练、深度学习以及大规模与大批量推论优化。SupermicroL11L12验证测试及现场部署服务可为客户提供无缝顺畅体验。客户收到即插即用的可扩充单元后即可在数据中心轻松部署,进而更快取得效益。

图片.png


关键词: Supermicro NVIDIA Blackwell HGX 液冷AI SuperCluster

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW

或用微信扫描左侧二维码

相关文章

查看电脑版