Hugging Face揭示了英特尔硬件的生成式人工智能性能提升

Hugging Face揭示了英特尔硬件的生成式人工智能性能提升

英伟达的 A100 GPU 加速器实现了生成式人工智能的突破性创新,为重塑人工智能可以实现的目标的前沿研究提供动力。

但在竞争激烈的人工智能硬件领域,其他人正在争夺这一行动。英特尔认为,其最新的数据中心技术——包括新的英特尔至强第四代蓝宝石急流CPU和人工智能优化的Habana Gaudi4 GPU——可以为机器学习训练和推理提供替代平台。

周二,开源机器学习组织Hugging Face发布了一系列新报告,显示英特尔的硬件在训练和运行机器学习模型方面提供了实质性的性能提升。结果表明,英特尔的芯片可能会对英伟达在人工智能计算领域的主导地位构成严重挑战。

Hugging Face数据显示,英特尔Habana Gaudi2在20亿参数BLOOMZ模型上的推理速度比在Nvidia A176-100G上快80%。BLOOMZ 是 BLOOM(BigScience 大型开放科学开放获取多语言模型的首字母缩写)的变体,该模型于 2022 年首次发布,支持 46 种不同的人类语言。更进一步,Hugging Face报告说,较小的7亿参数版本的BLOOMZ的运行速度将比在英特尔哈瓦那高迪100上运行的A80-2G快三倍。

在CPU方面,Hugging Face发布的数据显示,与之前的第三代版本相比,最新的第四代英特尔至强CPU的性能有所提高。根据Hugging Face的说法,Stability AI的稳定扩散文本到图像生成AI模型的运行速度提高了4.3倍,而无需更改任何代码。经过一些修改,包括使用带有Bfloat3(机器学习的自定义格式)的PyTorch英特尔扩展,Hugging Face表示它能够获得近8.16倍的速度提升。Hugging Face发布了一个在线演示工具,让任何人都可以体验速度差异。

“每天有超过200万人来到Hugging Face Hub试用模型,因此能够为所有模型提供快速推理非常重要,”Hugging Face产品总监Jeff Boudier告诉VentureBeat。“基于英特尔至强的实例使我们能够高效、大规模地为它们提供服务。”

值得注意的是,英特尔硬件的新拥抱脸性能声明并未与更新的基于Nvidia H100 Hopper的GPU进行比较。H100最近才提供给像Hugging Face这样的组织,Boudier说,到目前为止,它只能进行有限的测试。

英特尔的生成式人工智能战略是端到端的

英特尔有一个重点战略,以增加其硬件在生成人工智能领域的使用。这是一种涉及训练和推理的策略,不仅适用于最大的大型语言模型 (LLM),也适用于从云到边缘的实际用例。

“如果你看看这个生成人工智能领域,它仍处于早期阶段,在过去的几个月里,它已经通过ChatGPT大肆宣传,”英特尔副总裁兼通用汽车数据中心Kavitha Prasad,人工智能和云,执行和战略,告诉VentureBeat。“但现在的关键是把它转化为业务成果,这仍然是一个需要经历的旅程。

Prasad强调,英特尔采用人工智能战略的一个重要部分是实现“一次构建,随处部署”的概念。现实情况是,很少有公司能够真正建立自己的LLM。 相反,组织通常需要微调现有模型,通常使用迁移学习,这是英特尔支持和鼓励的硬件和软件的方法。

随着基于英特尔至强的服务器部署在各种环境中,包括企业、边缘、云和电信公司,Prasad指出,英特尔对人工智能模型的广泛部署寄予厚望。

与英伟达的“合作竞争”将继续提供更多性能指标

虽然英特尔显然在与英伟达竞争,但普拉萨德表示,在她看来,这是一种“合作竞争”场景,这在IT领域越来越普遍。

事实上,英伟达正在自己的一些产品中使用第四代英特尔至强,包括一月份宣布的DGX4。

“世界正在走向'合作'环境,我们只是其中的参与者之一,”普拉萨德说。

展望未来,她暗示英特尔的其他性能指标将是“非常积极的”。特别是下一轮MLcommons MLperf AI基准测试结果将于3月初发布。她还暗示,更多硬件即将推出,包括Habana Guadi<> GPU加速器,尽管她没有提供任何细节或时间表。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/2076.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

Microsoft Security Copilot 使用 GPT-4 帮助安全团队以 AI 速度行动

下一篇

参议员墨菲在ChatGPT上的推文引发了前白宫人工智能政策顾问的强烈反对

微信公众号

微信公众号