电话

15169028800

Nvidia发布最强大AI芯片GH200 Superchip以加速生成式AI工作负载

标签: 戴尔驱动 2023-06-07 

  Nvidia GH200 Superchip(如图)旨在为那些运行最复杂AI工作负载的系统提供动力,包括训练下一代生成式AI模型。

  Nvidia公司首席执行官黄仁勋在台湾举行的COMPUTEX 2023活动上宣布了这一消息,他还透露首批将由这种超级芯片提供动力的计算机系统。黄仁勋解释说,GH200使用Nvidia的NVLink-C2C互连技术,将Nvidia基于Arm的Grace CPU和Hopper GPU架构融合到一个芯片中。

  这款新的芯片总带宽达每秒900 GB,比当今最先进的加速计算系统中采用的标准PCIe Gen5通道高出7倍。Nvidia表示,Superchip的功耗也降低了5倍,使其能够更有效地处理那些要求苛刻的AI和高性能计算应用。

  特别是,Nvidia GH200 Superchip有望用于以OpenAI ChatGPT为代表的生成式AI工作负载中,这种生成式AI从提示中生成新内容的能力近乎人类,目前已经席卷了整个科技行业。

  Nvidia公司加速计算副总裁Ian Buck表示:“生成式AI正在迅速改变企业,释放新的机遇,加速医疗、金融、商业服务和更多行业的发现。随着Grace Hopper Superchips的全面投产,全球制造商将很快能够为企业提供所需的加速基础设施,以构建和部署采用了他们独特专有数据的生成式AI应用。”

  这意味着它的内存是Nvidia于2020年推出的上一代DGX A100超级计算机的近500倍,同时也更加强大,后者仅仅是把8个GPU组合到一个芯片中。

  黄仁勋表示:“DGX GH200 AI超级计算机集成了Nvidia最先进的加速计算和网络技术,以扩展AI的前沿。”

  Nvidia表示,DGX GH200 AI超级计算机还将配备完整的全栈软件,用于运行AI和数据分析工作负载,例如,该系统支持Nvidia Base Command软件,提供AI工作流管理、集群管理、加速计算和存储库,以及网络基础设施和系统软件。同时,该系统还支持Nvidia AI Enterprise,这是一个包含了100多个AI框架、预训练模型和开发工具的软件层,用于简化生成AI、计算机视觉、语音AI和其他类型模型的生产。

  Constellation Research分析师Holger Mueller表示,Nvidia通过将Grace和Hopper架构与NVLink融合,有效地将两种真正可靠的产品合二为一。他说:“结果就是更高的性能和容量,以及用于构建AI驱动型应用的简化基础设施,让用户能够将如此多的GPU及其功能视为一个逻辑GPU,并从中获益。”

  当你以正确的方式将两件好事结合起来时,好事就会发生,Nvidia就是如此。Grace和Hopper芯片架构与NVLink相结合,不仅带来了更高的性能和容量,而且因为将所有这些GPU都视为一个逻辑GPU,从而对构建支持AI的下一代应用进行了简化。”

  Nvidia表示,首批采用新型DGX GH200 AI超级计算机的客户包括Google Cloud、Meta Platforms和微软,此外对于那些希望针对自身基础设施进行定制的云服务提供商来说,Nvidia还将把DGX GH200的设计作为一种蓝图提供给他们。

  微软Azure基础设施企业副总裁Girish Bablani表示:“传统上,训练大型AI模型是一项资源和时间密集型任务,DGX GH200处理TB级数据集的潜力,将使开发人员能够以更大的规模和更快的速度进行高级研究。”

  最后,Nvidia的服务器合作伙伴正计划基于新的GH200 Superchip打造他们自己的系统,首批推出的系统中包括Quanta Computer的S74G-2U,该系统将于今年晚些时候上市。

  其他合作伙伴,包括华硕、安提国际、研扬科技、思科、戴尔、技嘉、HPE、Inventec和Pegatron也将推出GH200驱动的系统。

  Nvidia表示,服务器合作伙伴已经采用了新的Nvidia MGX服务器规范,该规范也在本周一公布了。据Nvidia称,MGX是一种模块化参考架构,让合作伙伴能够基于其最新的芯片架构快速轻松地构建100多种版本的服务器,以适应广泛的AI、高性能计算和其他类型的工作负载。服务器制造商通过使用NGX有望将开发成本降低多达四分之三,开发时间缩短三分之二,缩短至大约六个月。