NVIDIA为需要加速计算的企业客户运行测试服务器

借助 nvidia ai,戴尔、浪潮、microsoft azure 和 supermicro 在今天发布的新 mlperf 基准测试中创下快速训练 ai 模型的记录
看看谁刚刚在快速训练 ai 模型方面创下新速度记录:戴尔科技、浪潮、supermicro以及在 mlperf 基准测试中首次亮相的 azure 均在使用 nvidia ai。
在今天宣布的 mlperf 训练 1.1 结果中,nvidia平台在所有八个热门工作负载中都创下了记录。
图示:在新一轮的测试中,nvidia ai 训练所有模型的速度都快于替代方案
nvidia a100 tensor core gpu 提供了最出色每芯片性能, selene 是nvidia内部基于模块化nvidia dgx superpod架构构建的ai超级计算机,借助nvidia infiniband网络和nvidia软件栈进行扩展,a100在selene上实现了最快的ai训练速度 。
图示:nvidia a100 gpu 在所有八项 mlperf 1.1 测试中均实现最好的每芯片训练性能
云服务更上一层楼
根据最新结果,在训练 ai 模型方面,azure 的 ndm a100 v4 实例的速度遥遥领先。它运行了新一轮的每项测试,扩展到多达 2,048 个 a100 gpu。
azure 不仅展示了出色性能,而且在美国的六个地区,现在所有人都可以租借和使用其出色性能。
ai 训练是一项需要大量投入的大型工作。nvidia希望用户借助他们选择的服务或系统以创纪录的速度训练模型。
因此,nvidia将 nvidia ai 与面向云服务、主机托管服务、企业和科学计算中心的产品相结合。
服务器制造商各显身手
在oem 中,浪潮凭借其八路gpu服务器nf5688m6 和nf5488a5液冷服务器在单节点性能方面创下了最多记录。戴尔和 supermicro 在四路 a100 gpu 系统上创下了记录。
共有 10 家 nvidia 合作伙伴提交了本轮测试结果,其中包含 8 家 oem 和 2 家云服务提供商。它们占所有提交的 90% 以上。
这是 nvidia 生态系统在 mlperf 训练测试中的第五次亮相,也是到目前为止最出色的亮相。
nvidia的合作伙伴之所以积极参与,是因为他们知道 mlperf 是唯一符合行业标准、经过同行评审的 ai 训练和推理基准测试。对于评估 ai 平台和供应商的客户来说,这是一个有价值的工具。
为速度认证的服务器
百度 paddlepaddle、戴尔科技、富士通、技嘉科技、慧与、浪潮、联想和 supermicro 提交了基于本地数据中心的结果(单节点和多节点任务)。
nvidia几乎所有的 oem 合作伙伴都在 nvidia 认证系统上运行了测试,nvidia为需要加速计算的企业客户验证了服务器。
提交的范围展示了 nvidia 平台的广度和成熟度,该平台为各种规模的企业提供最佳的解决方案。
既快速又灵活
nvidia ai 是唯一用于提交所有基准测试和用例的平台参与者,这展示了其通用性和高性能。快速灵活的系统提供客户所需的生产力,以加快他们的工作速度。
ai训练基准测试涵盖当今最热门的八个 ai 工作负载和场景,例如计算机视觉、自然语言处理、推荐系统、增强学习等。
mlperf 测试透明、客观,因此用户可以依靠结果做出明智的购买决策。该行业基准测试组织成立于 2018 年 5 月,得到阿里巴巴、arm、google、intel 和 nvidia 等数十家行业领先公司的支持。
三年内加速 20 倍
回顾过去,数据显示,仅在过去 18 个月,nvidia a100 gpu 的性能就提升了 5 倍以上。这要归功于软件的持续创新,这也是nvidia目前工作的重心。
自从三年前 mlperf 测试首次亮相,nvidia 的性能提高了 20 倍以上。这种大规模加速源于nvidia在全栈 gpu、网络、系统和软件方面取得的进步。
图示:nvidia ai 在三年内实现了 20 倍以上的改进
持续改进软件
nvidia的新进展来自多项软件改进。
例如,借助一类新的内存复制操作,nvidia在针对医学成像的 3d-unet 基准测试中实现 2.5 倍的操作加速。
得益于微调 gpu 以进行并行处理的方式,nvidia在针对物体检测的 mask r-cnn 测试中实现 10% 的速度提升,而在针对推荐系统的测试中实现了 27% 的提升。nvidia只是重叠了独立操作,这种技术尤其适合跨多个 gpu 运行的作业。
nvidia扩展了 cuda 图形的使用范围,尽可能减少与主机 cpu 的通信。得益于此,nvidia在针对图像分类的 resnet-50 基准测试中实现了 6% 的性能提升。
nvidia在nccl 上实施了两种新技术。nccl 是nvidia的库,用于优化 gpu 之间的通信。对于 bert 等大型语言模型,这样可以将结果加速高达 5%。
利用nvidia的工作结果
nvidia使用的所有软件均在 mlperf 仓库提供,因此每个人都可以获得nvidia的出色结果。nvidia不断将这些优化整合到 ngc(nvidia的 gpu 应用程序软件中心)上的容器。
它是全栈平台的一部分,已在新的行业基准测试中得到验证,可从各种合作伙伴处获得,能够处理当今真正的 ai 作业。
原文标题:mlperf | 云服务、oem 借助 nvidia ai 让 ai 训练更上层楼
文章出处:【微信公众号:nvidia英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。


Linux和QNX操作系统在智能驾驶上的使用区别
Nature:当AI遇见量子计算,会引发科学革命吗?
高端对话║互联网设计如何服务制造业
Verilog和SystemVerilog定义了4种描述信号状态
5G/NB-IoT如何在燃气领域大展拳脚
NVIDIA为需要加速计算的企业客户运行测试服务器
技术已成手机行业升级敲门砖 存储变革正悄然发生
一加5什么时候上市最新消息:一加5旗舰即将发布,骁龙835+首部8G内存,秒小米6!
成为主流的主动式PFC电源,为何优于被动式PFC电源?
苹果再曝电池问题 在阿联酋召回8万部iPhone!
Omniverse 课程系列 7:使用 Isaac Sim 实现机器人仿真入门
一文详解HLS从C/C++到VHDL的转换
ARHT和伦敦商学院合作推出了实时全息讲师
全新结构开放数控系统的研究
c语言中的转义字符
3D面部模型实现一部智能手机就行了
小米王腾辟谣小米10 Pro海报 并称太丑了
如何选择超声波储罐液位传感器(一)
陆风逍遥什么时候上市?已于此前广州车展中亮相,一经亮相外观就相当吸引,性价比高,售价仅6万
现在还不会为设备选择性能最佳的电子连接器吗?