在2024年超级计算机大会上,英伟达(Nvidia)不仅展示了迄今为止最大的人工智能“芯片”——GB200 NVL4 Superchip,还宣布其H200 NVL PCIe模块已全面上市,为运行人工智能工作负载的企业服务器提供了强有力的支持。
GB200 NVL4 Superchip无疑是本次发布会的重头戏。这款超级芯片将两个基于Arm的Grace CPU与四个基于英伟达全新Blackwell架构的B200 GPU通过NVLink连接起来,形成了一个强大的计算单元。其表面积比标准GB200 Superchip增加了一倍,处理能力更是有了质的飞跃。
据英伟达官方数据,GB200 NVL4的模拟性能是其前身GH200 NVL4的2.2倍,训练性能和推理性能也分别提升了1.8倍。这款超级芯片配备了高达1.3TB的连贯内存,能够轻松应对高性能计算和AI混合工作负载的挑战。
英伟达加速计算总监Dion Harris在发布会上表示,GB200 NVL4 Superchip是专为运行高性能计算和AI工作负载的“单服务器Blackwell解决方案”而设计的。这一解决方案不仅提升了计算性能,还降低了功耗,提高了能源效率。此外,英伟达还与惠普企业等合作伙伴共同推出了基于Blackwell的全新解决方案,进一步丰富了产品线,满足了不同客户的需求。
除了GB200 NVL4 Superchip外,英伟达还宣布了H200 NVL PCIe模块的全面上市。这款模块包含了今年早些时候推出的H200 GPU,并采用了风冷设计,使其成为具有低功耗、风冷企业机架设计的数据中心的理想选择。H200 NVL通过NVLink互连桥将两张或四张PCIe卡连接在一起,实现了高速通信。虽然其性能略低于SXM模块,但凭借其灵活的配置和较低的功耗,仍然受到了市场的广泛关注。
英伟达在发布会上还展示了GB200 NVL4 Superchip的计算能力。与GH200 NVL4相比,GB200 NVL4在使用MILC代码的模拟工作负载上速度提高了2.2倍,训练3700万参数的GraphCast天气预报AI模型的速度提高了80%,使用16位浮点精度对70亿参数的Llama 2模型进行推理的速度也提高了80%。
暂无评论哦,快来评论一下吧!