谷歌到 IBM:大型科技巨头如何拥抱 Nvidia 的新硬件和软件服务

谷歌到 IBM:大型科技巨头如何拥抱 Nvidia 的新硬件和软件服务

Nvidia 在圣何塞举行的 GTC 大会上全力以赴突破计算的界限。

首席执行官黄仁勋(Jensen Huang)身穿黑色皮夹克,在主题演讲中向挤满了人群的人群发表讲话(该活动看起来更像是一场音乐会,而不是一场会议),并宣布了期待已久的GB200 Grace Blackwell超级芯片,承诺将大型语言模型(LLM)推理工作负载的性能提高30倍。他还分享了汽车、机器人、Omniverse 和医疗保健领域的显着发展,让互联网充斥着 Nvidia 的所有东西。

然而,如果没有行业合作伙伴关系,GTC永远不会完整。英伟达分享了它如何通过将其新宣布的人工智能计算基础设施、软件和服务引入其技术堆栈来发展与几家行业巨头的合作。以下是主要合作伙伴关系的概要。

AWS系统

英伟达表示,AWS将在EC2实例上提供其新的Blackwell平台,该平台采用GB200 NVL72,具有72个Blackwell GPU和36个Grace CPU。与上一代 Nvidia GPU 相比,这将使客户能够更快、更大规模地构建和运行数万亿参数 LLM 的实时推理。两家公司还宣布,他们将为 Project Ceiba(一台专门基于 AWS 构建的 AI 超级计算机)带来 20,736 个 GB200 超级芯片,并联手将 Amazon SageMaker 集成与 Nvidia NIM 推理微服务集成。

谷歌云

与亚马逊一样,谷歌也宣布将英伟达的Grace Blackwell平台和NIM微服务引入其云基础设施。该公司进一步表示,它正在 Nvidia H100 GPU 上增加对 JAX 的支持,JAX 是一种用于高性能 LLM 训练的 Python 原生框架,并通过 Google Kubernetes Engine (GKE) 和 Google Cloud HPC 工具包更轻松地在其平台上部署 Nvidia NeMo 框架。

此外,Vertex AI 现在将支持由 NVIDIA H100 GPU 提供支持的 Google Cloud A3 虚拟机和由 NVIDIA L4 Tensor Core GPU 提供支持的 G2 虚拟机。

Microsoft

Microsoft还确认了将 NIM 微服务和 Grace Blackwell 添加到 Azure 的计划。然而,超级芯片的合作伙伴关系还包括英伟达的新 Quantum-X800 InfiniBand 网络平台。萨蒂亚·纳德拉(Satya Nadella)领导的公司还宣布将DGX Cloud与Microsoft Fabric原生集成,以简化自定义AI模型开发,并在Azure Power平台上提供新推出的Omniverse Cloud API。

在医疗保健领域,Microsoft表示,Azure将使用英伟达的Clara微服务套件和DGX Cloud,帮助医疗保健提供商、制药和生物技术公司以及医疗设备开发商在临床研究和护理服务方面快速创新。

神谕

甲骨文表示,它计划在 OCI 超级集群和 OCI 计算实例中利用 Grace Blackwell 计算平台,后者采用 Nvidia GB200 超级芯片和 B200 Tensor Core GPU。它还将出现在 OCI 上的 Nvidia DGX Cloud 上。

除此之外,甲骨文公司表示,Nvidia NIM 和 CUDA-X 微服务(包括用于 RAG 推理部署的 NeMo Retriever)还将帮助 OCI 客户为其生成式 AI 应用带来更多洞察力和准确性。

树液

SAP正在与英伟达合作,将生成式人工智能集成到其云解决方案中,包括最新版本的SAP Datasphere、SAP商业技术平台和RISE with SAP。该公司还表示,计划使用英伟达的生成式人工智能代工服务在SAP BTP中构建额外的生成式AI功能,其中包括DGX云AI超级计算、英伟达AI企业软件和英伟达人工智能基金会模型。

IBM公司

为了帮助客户解决复杂的业务挑战,IBM Consulting 计划将其技术和行业专业知识与 Nvidia 的 AI Enterprise 软件堆栈相结合,包括新的 NIM 微服务和 Omniverse 技术。IBM表示,这将加速客户的AI工作流程,增强用例到模型的优化,并开发特定于业务和行业的AI用例。该公司已经在使用 Isaac Sim 和 Omniverse 为供应链和制造构建和交付数字孪生应用程序。

雪花

数据云公司Snowflake扩大了之前宣布的与Nvidia的合作伙伴关系,以与NeMo Retriever集成。生成式 AI 微服务将自定义 LLM 连接到企业数据,并允许公司的客户增强使用 Snowflake Cortex 构建的聊天机器人应用程序的性能和可扩展性。此次合作还包括 Nvidia TensorRT 软件,该软件可为深度学习推理应用提供低延迟和高吞吐量。

除Snowflake外,数据平台提供商Box、Dataloop、Cloudera、Cohesity、Datastax和NetApp也宣布,他们计划使用Nvidia微服务,包括全新的NIM技术,帮助客户优化RAG管道,并将其专有数据集成到生成式AI应用程序中。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/5789.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

“注意力就是你所需要的一切” 创作者在 Nvidia GTC 上超越变形金刚,将目光投向 AI:“世界需要更好的东西”

下一篇

马斯克的 Neuralink 展示了第一位植入患者:“就像使用 The Force”

微信公众号

微信公众号