Hugging Face 与 Google 合作加速开放式 AI 开发

Hugging Face 与 Google 合作加速开放式 AI 开发

随着各行各业的企业竞相将他们的 AI 愿景变为现实,供应商正在采取行动,将他们需要的所有资源集中在一个地方。例如,Google 和 Hugging Face 之间的一项新战略合作为开发人员提供了一种简化的方式来利用 Google Cloud 服务并加速开放式生成式 AI 应用程序的开发。

在这项合作中,使用 Hugging Face 开源模型的团队将能够使用 Google Cloud 为他们提供培训和服务。这意味着他们将获得 Google Cloud 为 AI 提供的一切,从专门构建的 Vertex AI 到张量处理单元 (TPU) 和图形处理单元 (GPU)。

“从最初的《变形金刚》论文到T5和Vision Transformer,谷歌一直走在人工智能进步和开放科学运动的最前沿。通过这种新的合作伙伴关系,我们将让 Hugging Face 用户和 Google Cloud 客户能够轻松地利用最新的开放模型以及领先的优化 AI 基础设施和工具......有意义地提高开发人员构建自己的人工智能模型的能力,“Hugging Face首席执行官Clement Delangue在一份声明中表示。

Hugging Face用户可以期待什么?

近年来,Hugging Face 已成为 AI 的 GitHub,是超过 500,000 个 AI 模型和 250,000 个数据集的首选存储库。超过 50,000 家组织依靠该平台进行 AI 工作。与此同时,谷歌云一直在竞相通过其以人工智能为中心的基础设施和工具为企业提供服务,同时也为开放的人工智能研究做出了贡献。

通过两家公司之间的合作,每月活跃在 Google Cloud 上的数十万 Hugging Face 用户将能够使用 Vertex AI(端到端 MLOps 平台)训练、调整和服务他们的模型,以构建新的生成式 AI 应用程序。

只需在主 Hugging Face 平台上点击几下即可获得该体验,并且还将包括在 Google Kubernetes Engine (GKE) 中训练和部署模型的选项。这将为开发人员提供一种通过“自己动手”的基础设施来为他们的工作负载提供服务的方法,并使用 GKE 上特定于 Hugging Face 的深度学习容器来扩展模型。

作为其中的一部分,训练模型的开发人员还将能够利用 Google Cloud 提供的硬件功能,包括由 Nvidia H100 Tensor Core GPU 提供支持的 TPU v5e、A3 VM 和由 Intel Sapphire Rapid CPU 提供支持的 C3 VM。

“模型将通过推理端点轻松部署在 Google Cloud 上用于生产。AI 构建者将能够在 Hugging Face 空间上使用 TPU 加速他们的应用程序。组织将能够利用他们的Google Cloud帐户轻松管理其Enterprise Hub订阅的使用和计费,“Hugging Face产品和增长负责人Jeff Boudier和该公司技术负责人Philipp Schmid在一篇联合博客文章中写道。

暂不可用

虽然此次合作刚刚宣布,但需要注意的是,包括 Vertex AI 和 GKE 部署选项在内的新体验目前尚不可用。

该公司希望在 2024 年上半年向 Hugging Face Hub 用户提供这些功能。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/5464.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

Digs 宣布获得 700 万美元种子轮融资,为其协作式住宅建筑软件提供支持

下一篇

OpenAI 推出新一代嵌入模型和其他 API 更新

微信公众号

微信公众号