您现在的位置是:首页 > 综合 > 正文

用于生成AI的英伟达DGXGH200AI超级计算机发布

发布时间:2023-07-03 16:23:30编辑:浦鸣璧来源:

导读 NVIDIA 的 Jensen Huang 本周将举行的 Computex 2023 上发表主题演讲,其中包括新产品发布,重点是支持开发用于生成 AI 应用、数

NVIDIA 的 Jensen Huang 本周将举行的 Computex 2023 上发表主题演讲,其中包括新产品发布,重点是支持开发用于生成 AI 应用、数据分析和推荐系统的下一代模型。由 NVIDIA GH200 Grace Hopper 超级芯片和 NVIDIA NVLink 交换机系统提供支持的 NVIDIA DGX超级计算机 占据了舞台中心。

NVIDIA DGX GH200使用 NVLink 互连技术和 NVLink 开关系统,将 256 个 GH200 超级芯片结合起来作为单个 GPU 运行,提供 1 exaflop 的性能和 144 TB 的共享内存。这比单个 NVIDIA DGX A100 系统的内存几乎多出 500 倍!

NVLink 技术大规模扩展人工智能

GH200 Superchips 使用NVLink-C2C芯片互连将基于 Arm 的 NVIDIA Grace CPU 与 NVIDIA H100 Tensor Core GPU 相结合,无需传统的 CPU 到 GPU PCIe 连接。与最新的 PCIe 技术相比,GPU 和 CPU 之间的带宽增加了 7 倍,互连功耗降低了 5 倍以上,并为 DGX GH200 超级计算机提供 600GB Hopper 架构 GPU 构建模块。

这是第一台将 Grace Hopper Superchips 与 NVLink 交换机系统配对的超级计算机。与 8 个 GPU 限制结合 NVLink 作为单个 GPU 相比,这种新的互连使 DGX GH200 系统中的所有 GPU 能够作为一个整体工作,而不会影响性能。DGX GH200 架构提供比上一代多 10 倍的带宽,提供大型 AI 超级计算机的强大功能,并且只需简单地对单个 GPU 进行编程即可。

人工智能先驱获得新的研究工具

第一个使用新超级计算机的预计将是谷歌云、Meta 和微软,让他们能够探索其生成人工智能工作负载的能力。NVIDIA 打算向云服务提供商和其他超大规模提供商提供 DGX GH200 设计作为蓝图,以便他们可以针对自己的基础设施进行定制。

NVIDIA 研究人员和开发团队将能够使用配备四个 DGX GH200 系统的新型 NVIDIA Helios 超级计算机。Helios 将包含 1,024 个 Grace Hopper 超级芯片,预计将于今年年底上线。Helios 超级计算机中的每个系统都将与 NVIDIA Quantum-2 InfiniBand 网络互连,带宽数据吞吐量高达 400Gb/s,用于训练大型 AI 模型。

集成且专门定制

DGX GH200 超级计算机将包含 NVIDIA 软件,提供交钥匙全栈解决方案,支持最大的人工智能和数据分析工作负载。NVIDIA Base Command软件提供 AI 工作流程管理、企业级集群管理、加速计算、存储和网络基础设施的库,以及针对运行 AI 工作负载进行优化的系统软件。NVIDIA AI Enterprise软件将包含在内,提供 100 多个框架、重新训练的模型和开发工具,以简化生产型 AI 的开发和部署,包括生成型 AI、计算机视觉、语音 AI 等。

标签:

上一篇
下一篇

最新文章