导航菜单

Nvidia赢得针对数据中心和边缘SoC工作负载的新AI推理基准

Nvidia力推周三发布的最新一套MLPerf基准测试获胜。这家GPU制造商表示,它在新的MLPerf推理基准上发布了最快的结果,该基准用于衡量数据中心和边缘AI推理工作负载的性能。

MLPerf的五个推理基准适用于四个推理方案,涵盖了AI应用程序,例如图像分类,对象检测和翻译。英伟达凭借其Turing GPU,在以数据中心为中心的场景(服务器和离线)中均超过了所有五个基准。

同时,在以边缘为重点的单流和多流场景下,Xavier SoC在为MLPerf提交的商用边缘和移动SoC中实现了最高的性能。

Nvidia加速计算业务产品营销总监Paresh Kharya本周对记者说:“现代AI推论真的很难。” “当今部署的神经网络的多样性是巨大的,复杂性也是巨大的。随着我们进入更复杂,更有趣的用例(如对话式AI),这些模型的复杂性正急剧增加。”

MLPerf 是一个广泛的基准套件,用于测量机器学习(ML)软件框架(例如TensorFlow,PyTorch和MXNet),ML硬件平台(包括Google TPU,Intel CPU和Nvidia GPU)和ML云平台的性能。 去年,多家公司以及哈佛,斯坦福大学和加州大学伯克利分校等机构的研究人员首先 同意支持基准测试。目的是为开发人员和企业IT团队提供信息,以帮助他们评估现有产品并专注于未来的发展。

至于最新的推理基准,英伟达将其平台在各种AI工作负载上的可编程性归功于其强大的性能。

Kharya说:“ AI不仅要加速AI应用程序的神经网络阶段,而且要加速整个端对端管道。” “在Nvidia,我们致力于为我们提供的所有产品系列提供单一架构和单一编程平台以及优化。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。