英伟达副总裁Manuvir Das表示,随着GTC的启动,企业AI正处于“拐点”

英伟达副总裁Manuvir Das表示,随着GTC的启动,企业AI正处于“拐点”

在今天 Nvidia GTC 上令人眼花缭乱的产品发布中,我特别感兴趣的是了解这些新闻如何影响 2023 年企业中人工智能的采用和应用。

我很高兴直接从英伟达企业计算副总裁Manuvir Das那里得到独家新闻,上个月我与他进行了交谈,深入了解了英伟达在过去十年中崛起为人工智能主导地位。为了清楚起见,这个一对一的采访已经过编辑和压缩。

马努维尔·达斯:我想说的是,企业人工智能正处于一个拐点。生成式AI和ChatGPT现在已经变得如此明显,即AI可以改变每个企业。我们已经看到这种情况已经有一段时间了,并且[已经推动]公司采用人工智能,但我认为ChatGPT确实创造了iPhone的时刻,如果你愿意的话,让企业公司说'我需要把它应用到我的业务和产品中,否则我将被抛在后面。

如果你看看我们的许多公告,它们都符合这一时刻。DGX Cloud[使Nvidia DGX AI超级计算机民主化,并经过优化以运行Nvidia AI Enterprise]是一个您可以获得培训能力的地方。

Nvidia AI 基础是一个您可以为您的公司定制生成 AI 然后部署它的地方。Nvidia AI Enterprise提供该软件,NeMo框架,您可以使用它来在云中训练自己的模型。

我们宣布的新芯片组合都是关于生成AI的推理。我们的 Hopper H100 在很大程度上是专门为这些生成式 AI 背后的变压器模型而设计的,并且 Hopper 已全面投入生产并开始通过各种渠道(如不同的云和 OEM)提供。

所以在企业AI方面,GTC的整个主题就是说这是企业真正拥抱AI的时刻。对于所有那些涉足和思考的企业来说,是否有一个令人信服的商业用例来证明对人工智能的投资是合理的?我认为它现在正盯着他们的脸。

VB:这些不同的公告解决了企业最大的痛点是什么?

达斯: 第一个痛点是人工智能是一个复杂的东西。对于非常小的公司或单个数据科学家,有非常好的交钥匙解决方案。您可以在AWS或Vertex AI或Azure ML上使用SageMaker,并且快速上手。但是,当您超越单个 GPU 或单个节点的那一刻,解决方案就不那么容易扩展了。

另一方面,你可以成为一个非常大的人工智能实践者,消耗1000多个GPU,比如Meta或OpenAI,你有自己的数百名工程师团队,可以处理所有的复杂性,并完成实际使用大规模环境所需的所有工程工作。

差距在于试图采用AI的典型企业公司。您需要一个中间的解决方案,例如 50 或 100 个 GPU,因此它可以扩展,但它是相对交钥匙的。因此,您可以只进行数据科学,但不必进行工程设计。这就是我们通过 DGX Cloud 解决的问题。

第二个痛点是生成式人工智能听起来很棒。ChatGPT很棒。它只是全世界的一个巨型模型。但是,企业公司需要一个在其上下文中有用的模型,其中包含其数据,客户信息和员工。因此,他们需要一种方法来构建自己的自定义模型,但他们不能从头开始。

他们需要的模型需要该公司的信息,以便他们可以用正确的答案回答问题,但它也需要ChatGPT从互联网上学到的如何交谈的一般智能。

因此,我们认为,市场上需要的是面向企业客户的系统。我们有一些预先训练的模型,我们已经在足够多的互联网上训练过,所以它们具有来回切换的一般智能和对话能力。然后,我们为您提供了一种使用您的数据自定义这些内容的方法,以便该模型可以在您的流程中实际使用,以提供正确的答案,并正确,智能地表达它。这就是我们建立 Nvidia Foundation 的原因。

第三个痛点是,对于一般的企业公司来说,如果他们在生产中采用人工智能,他们需要一些可靠的平台。对于我这个企业客户来说,我使用SAP HANA或VMware或Microsoft Office 365或Windows Server或其他什么。这些是我可以依赖的平台 - 错误将被修复,有一个发布节奏,事情是经过认证的。而今天,很多人工智能都是我从开源中挑选的,从开源中拿起的,把它们联系在一起,有点希望最好的。

我们通过采用我们的 Nvidia AI Enterprise 软件平台并将其放入云中来解决这个问题,以便您可以在启动实例(Google、Azure 或 AWS 或您选择进行工作的任何地方)时使用它。因此,您实际上可以运行一个可靠的软件,该软件已经完成了将所有部分组合在一起的所有工作。

VB:今天Nvidia GTC的哪個公告讓你個人最興奮?

达斯: 很难玩收藏夹,但我绝对认为DGX Cloud对企业客户来说将是一个很大的好处,因为他们在这种中间规模上实际完成工作会容易得多。没有人真正关注它们,因为它们不像独角兽那样租用10,000个GPU,每个人都专注于它们。但我认为企业客户是真正为客户带来人工智能好处的人。他们需要一些爱,他们需要更好的解决方案。

VB:显然,GTC在历史上是与数百万将使用这些工具的开发人员交谈的。但我很好奇——如果你有一群高管,他们或多或少地了解英伟达,你会对他们说什么,他们现在需要了解企业人工智能和英伟达?

达斯: 我认为他们需要知道的是,第一,这是一个全栈问题。这不仅仅是关于硬件。您需要硬件和正确的软件一起优化才能使其正常工作。我会告诉他们,他们不知道,英伟达在过去十年中一直在探索人工智能可以实现的所有不同用例,并构建软件堆栈以实现所有这些用例。

因此,如果他们正在寻找一家一站式公司来交谈或合作,以弄清楚如何进行人工智能之旅,那么对他们来说,没有比英伟达更好的选择了,因为我们是完成这一切的人。你谈到像OpenAI这样的公司,它有ChatGPT,并向他们致敬。他们是怎么得到的?因为他们与 Nvidia 密切合作,设计了可以扩展的正确架构,以便他们可以进行所有训练并构建模型。

VB:现在那里的人正在融化他们的GPU?我的意思是,是否有足够的 GPU 来实现这一切?

达斯: 我们的工作是提供大量的 GPU。但你说的关于融化是一件有趣的事情,因为我认为多年来传统企业计算中的另一件不同之处在于,你过度配置了这种普遍的传统智慧。您不希望 CPU 运行超过其容量的 50% 到 60%。你在那里留下了足够的净空。想想由此产生的浪费。

但是,由于 GPU 从一开始就是为了解决性能问题而设计的,因此我们始终将 GPU 置于一种模式,即它们旨在让人们真正使用它们。当我们对推出的每个新GPU进行所有老化测试时,在投入生产之前,我们会将这些东西置于高强度负载下,它只是长时间以最大负载运行,因为我们知道这就是人们使用它们的方式。所以我认为这将是GPU进入的另一个好处。我相信人们会试图融化它们,但我认为我们很好。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/2138.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

英伟达将把人工智能带到每个行业,首席执行官黄仁勋在GTC主题演讲中说:“我们正处于人工智能的iPhone时刻”

下一篇

Microsoft 将 Image Creator 添加到 Bing,以及 GPT-4 现已在 Azure OpenAI Service 中提供

微信公众号

微信公众号