最新全球权威AI基准测试榜单:浪潮和NVIDIA霸榜了

AI资讯1年前 (2023)发布 AI工具箱
283 0 0

今天,全球权威AI基准测试MLPerf最新推理榜单v1.0版正式公布。

在总计42个竞赛项目中,浪潮获得18项性能第一,英伟达获得10项性能第一,两家厂商占据了70%的冠军榜单,分别成为成绩最好的系统厂商及芯片厂商,成绩遥遥领先。

最新一期MLPerf共有17家厂商参与, 英伟达、英特尔、高通、阿里巴巴、浪潮、戴尔、HPE等全球AI领先公司悉数在列,竞争极为激烈。

MLPerf推理性能榜单从v0.5开始,至今已发布3次。这次的重大升级是版本进化到v1.0,因此测试内容更加规范,对测试硬件提出了更为细致的要求。

本次MLPerf推理性能测试总共包含6项,具体内容和参数如下:

MLPerf推理性能测试硬件分为“数据中心”和“边缘”两个场景。每类场景都包含固定任务(Closed)和开放优化(Open)两类性能竞赛。

其中,固定任务(Closed)强调AI计算系统的公平比较,参赛各方基于同一参考实现,没有针对硬件做特殊软件优化。

固定任务竞赛衡量的是同一深度学习模型在不同硬件上的性能,重点考察参测厂商硬件系统和软件优化的能力,广受厂商和客户看重。

数据中心分别在两种条件下进行测试。第一种是“离线”情况,其中所有数据都在单个数据库中可用。

第二个是模拟了数据中心服务器的真实情况,在该环境中,数据以突发方式到达服务器,要求系统必须能够足够快速、准确地完成其工作,才能处理下一个突发。

在数据中心固定任务“主赛道”中,共有13家厂商提交了584项竞赛成绩,是竞争最激烈的赛道。

在数据中心固定任务场景的16项竞赛中,浪潮获得11项第一,戴尔获得3项第一,Supermicro获得2项第一;而NVIDIA、浪潮包揽了边缘固定任务场景的17项冠军,NVIDIA获得10项第一,浪潮获得7项第一。

在边缘固定任务重要赛道中,共有11家厂商提交了326项竞赛成绩,显示出厂商对边缘与AI融合的关注度日益提升。

MLPerf由图灵奖得主大卫·帕特森(David Patterson)联合谷歌、斯坦福、哈佛大学等顶尖学术机构发起成立,是权威性最大、影响力最广的国际AI性能基准测试,地位相当于全球AI领域的“奥运会”。

MLPerf榜单每年定期发布基准测试数据,其结果被国际社会广泛认可。

2020年,MLPerf发布了第二个AI推理跑分榜单v0.7,当时浪潮AI服务器NF5488A5创造18项性能记录。

完整榜单地址:
https://mlcommons.org/en/news/mlperf-inference-v10/

© 版权声明

相关文章

暂无评论

暂无评论...