NVIDIA与合作伙伴在MLPerf基准测试中以A100展现顶尖性能

NVIDIA与合作伙伴持续在AI训练成果MLPerf基准测试中获得相当出色的成绩,这份测试结果点出了NVIDIA AI平台顶尖的多功能性及其广泛的生态系,NVIDIA与合作伙伴提交的测试成果占所有提交结果的90%。 NVIDIA AI 平台也完成了MLPerf 训练 2.0 中八个完整的测试项目。

没有其他的加速器能够完成所有基准测试,这些测试代表业界广泛采用的 AI 应用,包括语音识别、自然语言处理、推荐系统、对象侦测、图像分类等。 而 NVIDIA 自 2018 年 12 月第一次向 MLPerf 这个业界标准的 AI 基准测试提交成果以来,始终都是完成所有测试的参赛者。

NVIDIA与合作伙伴在MLPerf基准测试中以A100展现顶尖性能

顶尖基准测试结果及可用性

在连续四年提交的MLPerf基准测试中,基于NVIDIA Ampere架构的NVIDIA A100 Tensor核心GPU持续缔造优异的表现。


图一_各个提交者的平台在各种网络上训练的最快时间。

Selene 以最快的速度完成了八项训练测试中的其中四项。 Selene 是 NVIDIA 内部的 AI 超级计算机,基于模块化 NVIDIA DGX SuperPOD 建置而成,并由 NVIDIA A100 GPU、NVIDIA 的软件堆叠和 NVIDIA InfiniBand 网络技术互连。


图二_为了计算每个芯片的效能,此图表将每个提交结果调整至最接近最快参赛者的规模,最快的参赛者以 1x 表示。 为了判定最快的选手,我们采用多数参赛者使用的规模。

NVIDIA A100 GPU 也持续引领在单一芯片的领导地位,在八项测试中夺得六项冠军。

许多模型驱动着应用于真实世界的 AI 应用程序

AI 应用程序可能需要理解用户的语音请求内容、对图片进行分类、提出建议,并以语音信息的方式做出回应。

这些工作需要用到多种 AI 模型,用户需要快速灵活地设计、训练、部署和优化这些模型。

这也是 NVIDIA AI 平台提供的多功能性和顶尖效能对于真实世界中的 AI 至关重要的原因。

藉由 AI 提供投资报酬率

对于客户而言,他们的数据科学和工程团队是最宝贵的资源,他们的生产力决定AI基础设施的投资回报。

AI 研究人员的生产力取决于快速测试新想法的能力,除了需要能够训练任何模型的多功能性,也需要大规模训练这些模型所提供的速度。

此外,AI基础设施的运用仰赖于它的可替代性,或在单一平台上加速整个AI工作流程(从数据准备、训练到推论)的能力。

借助 NVIDIA AI,客户可以为整个 AI 流程使用相同的基础架构、重新调整其用途,以满足数据准备、训练和推论之间的不同需求,从而带来极高的投资回报。

而且,随着研究人员发现新的 AI 突破,支持最新模型的创新是极大化 AI 基础设施运用的关键。

NVIDIA AI 提供最高的每一美元单位生产力,因为它对每个模型都具有通用性和高效能,可扩展至任何规模,并可从端到端加速 AI,无论是资料准备、训练与推论皆然。

今天公布的最新测试结果证明,NVIDIA在迄今的每一次MLPerf训练、推论及高效能运算测试项目中,均具备广泛且深入的AI技术。

三年半提高了 23 倍的效能

自A100首次参与MLPerf测试以来的两年中,我们的平台提升了6倍以上的效能,而持续进行软件堆栈优化则有助于推动这些效益。

NVIDIA AI平台在3.5年内提高了23倍的性能,这是横跨GPU、软件和大规模改善的全方位创新的成果。

今年三月宣布推出的 NVIDIA Hopper 架构有望在日后取得更优异的成果。

我们是如何写下如此亮眼的成绩

软件的创新继续释放英伟达A Ampere 架构的更多性能。

以CUDA Graphs为例,它是一款能帮助在许多加速器上运行的作业负载降至最低的软件,该软件在此次的提交成果中被广泛使用。

我们用于加速GPU深度学习的cuDNN函式库的优化,有助于将大规模Ret-50的传输量提高4%以上,并将单一节点3D U-Net的速度提高超过5%。

而且,NVIDIA DALI (用于快速加载大量音频、图片或视频数据的库) 的增强有助于提高 RNN-T 效能。

所有人都能从MLPerf资源库取得NVIDIA使用的各种软件以获得世界级的成果。 我们不断将这些优化结果放入 NGC (我们的 GPU 应用软件中枢) 的容器内,并提供 NVIDIA AI 企业级的优化软件,并由 NVIDIA 提供全方位的支持。

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表评论

登录后才能评论