NVIDIA 为 AI 应用推出 HGX-2 云端服务器平台

2018年5月31日 | By News | Filed in: News.

https://ift.tt/2J4urk8

NVIDIA 的年度技术大会 GTC 今天于 Computex 前夕在台北举办。虽然说 GTC 本来是「GPU Technology Conference」的意思,但由于近来 AI 的兴起及其对运算力的巨大需求,GTC 的主题几乎全部份集中在 AI 与机器学习上,横跨物联网、机器人、智能制造、智能医疗、深度学习等各个领域。

在会议前的 Keynote 上,CEO 黄仁勋展示了资料,显示训练 AI 模型所需的运算力,在过去五年内成长了 30 万倍。黄仁勋认为,这样的密集运算力不是传统 CPU 所能提供的,只有高度平行化的 GPU,甚至是专门为 AI 打造的核心才能应付未来的需求。举例来说,NVIDIA 去年 GTC 上发布的 Volta 架构 就是第一个专门强化 4×4 矩阵运算能力的 GPU,在 AI 相关的应用上有 100x 的表现。

然而,就算是 Volta 也未能满足 AI 领域应用对于运算力的强大需求,因此 NVIDIA 今天发布了名为「HGX-2」的高性能运算服务器平台,旨在更小的空间、更少的能耗下,提供大规模的 AI 运算的需求。通过 NVSwitch 网状互连架构, HGX-2 最多可以串连 16 颗 Tesla V100 GPU,达到 2 Peta-FLOPS 的惊人速度,并且将由合作的服务器伙伴,打造以 HGX-2 为基础的各式产品。

事实上,NVIDIA 稍早发布的「史上最大 GPU」DGX-2 就是以 HGX-2 为基础架构所打造,但 DGX-2 定价高达 39.9 万美元,而且无法有太多配合个别应用去做的定制化,现在 NVIDIA 将平台开放给合作伙伴之后,应该能为 AI 应用带来更多的弹性吧?

IT.数码

via Engadget 中国版 https://ift.tt/2ylYXnK

May 31, 2018 at 12:03AM


发表评论

电子邮件地址不会被公开。 必填项已用*标注