英特尔的 AI 愿景:拥抱“堆栈每一层的开放性” |萨钦·卡蒂(Sachin Katti)访谈

英特尔的 AI 愿景:拥抱“堆栈每一层的开放性” |萨钦·卡蒂(Sachin Katti)访谈

英特尔首席执行官帕特·基辛格(Pat Gelsinger)今天在亚利桑那州凤凰城举行的公司2024年愿景大会上阐述了这家大型芯片制造商对人工智能和开放系统未来的愿景。

我采访了英特尔网络和边缘部门高级副总裁萨钦·卡蒂(Sachin Katti),就人工智能和英特尔的信念进行了一对一的采访,英特尔认为,提供一个开放的替代方案将使其在与英伟达等竞争对手的竞争中占据一席之地,英伟达在人工智能处理领域占据主导地位。

在活动期间,英特尔推出了其 Gaudi 3 AI 加速器芯片,其推理处理能力比 Nvidia 目前的 H100 AI 系统提高了 50%,能效提高了 40%。它公布了面向企业的全面人工智能战略,包括跨人工智能领域的可扩展系统。

它还描述了与HPE、联想和Supermicro合作的Gaudi 3客户,以及Gaudi加速器客户Bosch、CtrlS、IFF、Landing AI、Ola、Naver、NielsenIQ、Roboflow和Seekr的客户。

它专注于为企业 AI 创建一个开放平台,以加速安全 GenAI 系统的部署,由检索增强生成 (RAG) 实现。这与英伟达专有的基于CUDA的人工智能生态系统直接竞争。

Katti 深入研究了 Ultra 以太网联盟,英特尔正在领导该联盟的 AI 结构开放式以太网网络,他介绍了 AI NIC(网络接口卡)、用于集成到 XPU 的 AI 连接小芯片、基于 Gaudi 的系统,以及一系列用于英特尔代工的软硬参考 AI 互连设计。

以下是我们采访的编辑记录。

萨钦·卡蒂(Sachin Katti): 在下周的英特尔视觉大会上,我们的重点将放在如何为企业提供在企业各个部分采用人工智能的简单按钮?跨 AI PC、跨边缘、跨 IT,当然还有数据中心和云。话虽如此,我确实想强调,我们看到企业已经部署了大量的人工智能。但更多的是在计算机视觉或音频转录领域。企业采用人工智能的下一波浪潮是围绕生成式人工智能以及如何使用这些功能。

我们把今天这个世界正在发生的事情看作三个案例。这一切都与副驾驶有关。想象一下一个非常有用的帮手,人工智能是一个等待被要求帮助你完成任务的帮手。无论是软件工程还是客户服务等等。很快,如果它还没有发生,企业将寻求采用基于人工智能的代理。这些代理将自动化整个工作流程。他们将接管收银员的角色,例如客户服务或助理等。在企业中自动执行特定于域的复杂工作流。

下一阶段将是多个智能体,多个人工智能智能体,相互协作以执行企业部门职能。想想财务、供应链管理、商店安全,所有这些类型的功能,你通常需要多个人工智能代理进行交互和协作来执行该功能。这就是我们如何看待企业在这个人工智能世界中发展并采用它的方式。

企业今天面临的挑战是这并不容易。从多个维度来看,这并不容易。首先,它与数据有关。企业拥有大量数据。他们认为这些数据是他们宝贵的资产。它很敏感。这是私人的。通常,它对业务价值进行编码。其次,很多企业数据是非结构化的。它在数据库中没有整齐地组织起来。它存在于各种文档中,在录音中,在已录制的视频中等等。企业必须解决的第一部分是如何处理这些数据,以便他们保留主权,保留隐私和安全,并且不让它泄露。当然,第二部分是人工智能本身。他们如何构建正确的加速器堆栈,以利用新的大型语言和大型视觉模型来理解所有这些私有数据?

这将是主导架构:数据管理堆栈和人工智能堆栈。在 Vision 大会上,我们将宣布一项系统战略,以帮助企业采用和部署使用英特尔成熟技术的此类解决方案。如今,任何数据管理堆栈都是在过去几十年中基于 x86 构建的。大量的投资已经投入到企业级的建设中,使企业变得容易。我们将宣布参考系统,使企业能够轻松处理数据管理方面。其次,我们将宣布加速器堆栈、AI 堆栈、参考设计,这些设计结合了我们的加速器、网络,当然还有我们的 CPU 来处理 AI 模型。

我想强调的是,你会看到我们宣布了一堆组件产品。Xeon 6、AI 网络、AI NIC。但是我们要讨论的重点是,我们将把它们组合成系统,进入参考系统设计中,将所有硬件放在一起,测试它们,验证它们。将软件放在一起,测试它,验证它。将其作为参考设计交付给我们的 OEM 合作伙伴和我们的生态系统。反过来,他们将将其产品化并作为解决方案提供。

我们从企业那里听到响亮而清晰的声音,他们需要事情变得简单。他们无法处理将所有这些东西放在一起并思考如何使其工作的复杂性。这太难了。同时,他们想要开放和选择。他们不想被锁定在一个特定的生态系统中。我们正试图正面解决这个问题。不仅仅是宣布单个产品,而是将它们组合成系统。使用开源软件,使用开放标准,但要确保它是经过验证的参考设计。通过我们的生态系统进行扩展,并为企业提供选择。简而言之,这就是高层战略。

VentureBeat:关于开放性的信息很有意思。回顾历史并看到那里的演变非常有趣。我记得早在 1990 年代就报道了英特尔。有英特尔架构实验室。它提出了诸如视频会议之类的东西。这是英特尔拥有的一款软件,帮助该公司销售了大量处理器。或者这就是希望,推动并创建行业其他公司可以落后或不落后的软件。

我们正处于一个更现代的时代,在人工智能领域有一家占主导地位的公司,而英特尔则处于更大的开放倡导者地位。现在的一些界限是关注开放性与关注更具竞争力的专有方法。显然,英特尔有自己的芯片,这些芯片是非常专有的,但是从硬件到软件跨越这条线会变得更加有趣。

卡蒂: 我们在堆栈的每一层都拥抱开放性。显然,我们有筹码。这些都是产品。但是,当您拥有 CPU 和 GPU 或加速器时,您需要使用网络和开放标准将它们拼接在一起。让我从这里开始作为第一点。我们将在下周的英特尔视觉大会上宣布一个新的产品类别,称为 AI NIC。这些是基于以太网的 NIC,针对构建和部署 AI 集群进行了优化。它们将基于超级以太网联盟的开放标准。这是一个行业生态系统,定义了一个开放标准,该标准将成为 Nvidia 的 InfiniBand 的替代品。

当您将我们的东西、我们的 CPU 和加速器放在一起时,网络是开放的和基于以太网的。它将使用基于以太网的开放标准拼接在一起。这就是硬件层。下一步是软件层。与 CUDA 不同,英特尔的 oneAPI 和 oneDNN 是等效层,位于 Linux 基金会的 UXL 中。它是完全开源的。多家公司为此做出了贡献。它的使用没有限制。它与特定的硬件无关。它可以与许多硬件一起使用。有多个生态系统参与者为此做出了贡献。

参考设计的下一层,我们确保将其集成到 PyTorch 和 OpenVINO 中。当然,PyTorch 是所有 AI 用来开发模型的标准框架。我们确保这自然地流入 PyTorch。OpenVINO也是开源的,是一个推理运行时。这使得获取经过训练的模型并部署它进行推理变得容易。那就是使用 OpenVINO。它是完全开源的。所有源代码都可用。它支持英特尔,但也支持基于 ARM 的系统。

当我们谈论堆栈的更高层时,我们确保将 VLLM、DeepStream 以及所有开源软件库等内容集成到我们的参考设计中。我想强调的是,我们正在确保从系统、硬件和开放网络的最低级别,到软件堆栈的每一层,我们都在拥抱开源和开放标准。但是,我们要确保不会将所有这些放在一起并确保它对最终客户有效。当我说我们将提供参考系统设计时,我们会将其组合在一起,对其进行验证,并确保当您从我们的 OEM 获得该参考系统产品时,它就可以正常工作了。

VentureBeat:您能描述一下英特尔的软件资源吗?我看到英伟达在软件方面投入巨资的一些非常明确的领域。与开放的基础软件相比,您认为这如何?

卡蒂: 英特尔拥有非常强大的软件血统和投资水平。我们公司有超过 20,000 名软件工程师,负责堆栈的每一层。英特尔显然与硬件有关,但我们的观点是,软件是使硬件可用的原因,是使它完成需要完成的工作的原因。我们有非常强大的软件投资,所有这些投资都是为了确保我们提供这些类型的开放参考设计,并将它们提供给我们的生态系统。这是一项非常可观的投资,我们专注于确保投资旨在使企业 AI 变得简单和开源。

VentureBeat:现在对企业和人工智能的舒适度在哪里?他们中的许多人在企业技术部门,甚至是法律部门,听到OpenAI的首席技术官说他们不确定是否将YouTube视频用于模型训练时,可能会感到震惊。他们似乎希望锁定这个答案。你是否看到一种区别正在发展,这种舒适感正在到位?

卡蒂: 你一针见血。这就是企业不适感的来源。这就是我们开始这样做的原因。我们将在企业中采用人工智能视为他们需要解决的两件事的结合。他们如何处理他们的数据,然后他们如何自己采用模型?他们自己如何使用人工智能?我们将在下周的 Vision 上讨论 RAG,即检索增强生成。对于当今使用 AI 副驾驶的企业来说,这是一种流行的技术。

如果你看一下那里发生了什么,检索指的是数据片段。如何找到提示的所有相关上下文数据?如果有人输入提示,比如说英特尔员工说:“告诉我最新的英特尔芯片是如何测试的。测试了哪些安全漏洞?这是机密信息。它没有向公众发布。你需要一个软件,数据部分,RAG中的检索部分,它将找到与该提示相关的原始数据。然后,你不需要把所有的原始数据——PDF文件、设计文档——都扔给你,让你像人类一样对它们进行分类,而是使用像Llama 2这样的人工智能模型将其总结成一个人类可以消化的答案。这样,企业可以确保在将数据馈送到该模型之前,他们可以强制实施访问控制和安全策略。他们对提供给模型的内容感到满意。然后,他们只适当地使用模型。

这些是我们下周将要交付的参考设计类型。这使企业在构建这些 AI 系统时能够更加透明地控制其数据的使用方式。但这无疑是我们的重点所在。如何让它变得简单?如何使其合规?如何确保企业采用人工智能是安全的,以便他们能够克服采用这些系统的不适感?

VentureBeat:在您的演讲中,您有一节是关于副驾驶、代理和职能的年龄的。你能为我们区分这些吗?

卡蒂:我们着眼于企业人工智能在三个时代的发展。今天,我们正处于副驾驶时代。显然,我们听说过Microsoft Copilot,GitHub Copilot,各种Copilot。从根本上说,这些都是帮手。这些是待命的 AI 助手,等待被调用。我正在执行一项软件工程任务,我打电话给 GitHub Copilot 来帮助我完成。这就是人工智能今天所处的位置。

正如我所说,他们很快就会成为代理人。人工智能将自行完成其中一些复杂的工作流程,而不是我调用人工智能。它将成为客户服务代理。它将成为软件工程师。它将成为助手。它将成为收银员,而不是人类必须呼叫人工智能。这就是我们所说的人工智能代理时代。但代理仍然只执行一个工作流。

当我们谈论 AI 功能时代时,它是多个 AI 代理相互交互和协作以执行更复杂的功能,例如处理企业财务、处理企业库存管理、处理商店安全。这些事情需要多个人一起工作来处理。想象一下,在这样一个世界里,人工智能代理协同工作,执行整个部门或企业职能的职责。这就是我们相信企业将如何发展的方式。它的基础将是这个共同的构建块。如何处理企业数据以及如何部署 AI 模型?我们希望确保我们提供的系统能够让企业在构建副驾驶、部署代理和部署功能时轻松做到这一点,从而跨越这些不同的时代。

VentureBeat:我对公开数据和私有数据的概念以及它们之间的界限很感兴趣。英伟达(Nvidia)的黄仁勋(Jensen Huang)一直在说,我们正处于主权人工智能的时代,这将由边界来定义。我们有国界,很多国家对数据出国有自己的限制,我们也会遇到类似的情况。公司将制定主权数据政策,规定允许什么进入或退出,直到人工智能从哪里获取数据。即使是个人,我也想将多少家庭数据放到家门外,用于不同的人工智能应用?我可能会使用一些东西来解析我的电子邮件以进行分析。我想知道英特尔正在谈论的内容和其他人正在谈论的内容之间的视图如何同步?

卡蒂: 它非常一致。我们把世界看作是所有这些实体,无论它们是主权国家、企业还是个人。他们都希望控制自己的数据,并且都希望针对他们进行个性化建模。今天,如果你看一下最大的模型,它们都是在公共数据上训练的。这是适合所有人的一种模式。随着时间的流逝,我们预计所有这些模型都将专门用于单个领域或单个企业。当我们用这些参考系统谈论我们的企业人工智能战略时,它是关于我们如何为单个企业实现这种个性化。对于 AI PC,它是关于如何在 PC 本身上为每个人做到这一点。

在各种规模上,无论是拥有 AI PC 的个人、拥有边缘和 IOT 数据中心的企业,还是在企业可能使用实例的云中,我如何为您提供安全、可靠且易于使用的系统,让您能够根据自己的需求定制 AI?从根本上说,这是我们的战略。

VentureBeat:如果 LLM 会变得更加专业化,我想知道无所不知的 LLM 与经过专门培训以帮助企业或帮助一个人的 LLM 之间的对比。这些 LLM 仍然需要什么才能保持智能?我可以看到一个LLM,你把世界上的所有东西都倾倒进去,变得非常聪明,可以以对话的方式回答你提出的任何问题。但是,非常专门针对一家公司的 LLM,如果他们没有把世界上的所有东西都塞进去,他们还会有智能的外表吗?

卡蒂:如果你看看正在发生的事情,LLM正在做两件事。第一,他们正在学习如何完成特定的任务。正如你所说,他们正在变得聪明。他们正在学习如何像人一样说话,如何推理,如何编程。另一件事是它们是知识的宝库。他们摄取所有数据,而不是去搜索引擎,你可以问他们一些事情。由于这两件事结合在一起,它们变得非常大。最新的 GPT 模型可能是一万亿个参数。我们谈论的是未来 10 万亿或更多。需要大量计算基础结构来训练和部署它们的大型模型。

我们在这里谈论的世界观,我绝对需要他们变得聪明。他们需要能够进行总结。他们需要能够进行代码生成。但我不需要他们知道世界上的一切。我需要他们知道我的企业需要什么。当你做出这种区分时,他们有能力,但他们只记得与我相关的东西。他们是专门为我准备的。然后你可以把它们变小。你不需要这个巨型模型,它拥有巨大的基础设施,只能在世界上的一两个地方运行。您可以缩小它们并将它们部署在更多位置,甚至可能在您的 PC 上。

这就是我们如何将其扩展的方式。在最大的数据中心部署这些设备的成本,特别是在能源消耗方面,将非常高,以至于大多数人或大多数企业都无法访问。我们预计这就是世界的发展方式,而且它已经在发生。如果你看一下Mistral,这些开源模型,它们非常小,但非常有能力。他们做许多任务以及最大的模型。但他们并不了解一切。您将模型专门化,以便只了解您的数据。那么它对你来说同样有效。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/5893.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

英特尔吹捧开放人工智能时代的愿景以及英伟达主导地位的替代方案

下一篇

道富银行的生成式人工智能让投资者可以与他们的数据聊天

微信公众号

微信公众号