NVIDIA HGX-2 平台专为新一代人工智能设计,拥有 16个Tesla V100图形处理单元(GPU),NVSwitch则利用超过 80,000个Cuda核心,为深度学习和计算工作负载,提供无与伦比的强大性能
新的超级服务器 运算速度达到 2 Petaflops,是全球最为强大的人工智能和高性能计算云服务器平台
NVIDIA HGX-2 平台专为新一代人工智能设计,拥有 16个Tesla V100图形处理单元(GPU),NVSwitch则利用超过 80,000个Cuda核心,为深度学习和计算工作负载,提供无与伦比的强大性能
企业计算、存储和网络解决方案以及绿色计算技术领域的全球领导者美超微电脑股份有限公司(Super Micro Computer, Inc.) (NASDAQ: SMCI)今天宣布,该公司成为首批采用NVIDIA®(英伟达)HGX-2云服务器平台来开发全球最强大的人工智能(AI)和高性能计算(HPC)系统的公司之一。
美超微总裁兼首席执行官梁见后(Charles Liang)表示:“为了帮助应对快速扩大的人工智能模型的规模 -- 有些模型几周就要培训出来,美超微正在开发基于HGX-2平台、将让性能提升一倍有余的云服务器。HGX-2系统将会支持对复杂模型进行高效训练。它能够借助NVLink和NVSwitch,将16个互联Tesla V100 32GB SXM3 GPU结合到一起,作为一个统一、运算速度达到2 Petaflops(每秒千万亿次)的加速器来开展工作,内存总量达到0.5太字节,提供前所未有的强大计算能力。”
从计算机自然语言到自动驾驶汽车,人工智能方面的快速发展已经让各行各业都发生了转变。为了支持这些能力,人工智能模型在规模上也呈爆炸性发展。在释放新的科学观点之际,高性能计算应用在复杂程度上面也呈现类似的发展态势。
美超微基于HGX-2的系统将能为数据中心提供超集设计,加速人工智能和高性能计算在云端上的发展。在经过调整优化以后,美超微的HGX-2服务器将能为快速模型训练,提供最高水平的计算性能和内存。
NVIDIA副总裁、加速计算部门总经理伊恩 - 巴克(Ian Buck)说:“人工智能模型在复杂程度和规模方面均呈爆炸性发展态势,因此研究人员和数据科学家需要达到新层次的GPU加速计算。HGX-2能够支持为以更快的速度培训先进人工智能处理这些巨大的新模型,同时也能在数据中心中节省大量成本、空间和能源。”