AI芯片电源效率大比拼:高通以2:1击败NVIDIA

AI芯片电源效率大比拼:高通以2:1击败NVIDIA

人工智能芯片是用于训练和运行人工智能模型的专用硬件,而高通和NVIDIA公司是目前两家领先的人工智能芯片制造商,在周三公布的一组新的测试数据中,高通的人工智能芯片在三个衡量电源效率的指标中以2比1击败了NVIDIA。

据了解,人工智能模型需要用大量的数据进行训练,以提高其精准性和性能。 训练完成后,人工智能模型就可以用于推理,即执行一些具体的任务,比如根据输入生成文字回复,或者判断一张图片是否包含猫。 推理是人工智能技术在产品中广泛应用的环节,但也会增加企业的成本,其中一个主要成本就是电力。

目前,NVIDIA毫无疑问地主宰了AI训练模型市场,是最大的硬件赢家。 不过,AI应用还有很多其它的部分,也不会给NVIDIA全拿走。 尤其是在耗能上,谷歌等企业也在探索如何降低额外成本。

在这些主要成本中,其中之一是电力。 高通利用其在为手机等低功耗设备设计芯片的经验,推出了一款专为云端和边缘端提供高性能、低功耗人工智能处理的芯片,名为Cloud AI 100。

该芯片在周三公布的由MLCommons(一个维护人工智能芯片行业测试标准的工程联盟)发表的测试数据中,在两项功率效率指标上击败了NVIDIA的旗舰芯片H100。

AI芯片电源效率大比拼:高通以2:1击败NVIDIA

功率效率指标是指每瓦特电力可以执行多少次服务器查询。 高通的Cloud AI 100在图像分类方面达到了227.4次查询每瓦特,而NVIDIA的H100只有108.4次查询每瓦特,图像分类可以用于识别图片中的物体或场景。 高通还在物体检测方面领先于英伟达,分别达到了3.8次查询每瓦特和2.4次查询每瓦特。 物体检测可以用于分析零售店的监控视频,了解顾客最常去哪些地方。

然而,在自然语言处理方面,NVIDIA却占据了绝对优势,无论是在性能还是功率效率方面都排名第一。 自然语言处理是人工智能技术中最广泛应用于聊天机器人等系统的技术,NVIDIA达到了10.8次查询每瓦特,而高通排名第二,为8.9次查询每瓦特。

高通和NVIDIA都希望通过提供高效的人工智能芯片来抢占数据中心市场的占有率。 随着越来越多的企业将人工智能技术融入他们的产品中,这个市场预计将快速增长。

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表评论

登录后才能评论