随着英伟达推动人工智能民主化,以下是它在 GTC 2023 上宣布的所有内容

随着英伟达推动人工智能民主化,以下是它在 GTC 2023 上宣布的所有内容

在今年的GPU技术大会(GTC)上,英伟达继续推动人工智能硬件,特别关注使其技术更容易被各行各业的企业使用,并简化ChatGPT等生成式人工智能应用程序的开发。

以下是这家总部位于加利福尼亚州圣克拉拉的公司发布的重大公告的每日回顾,并链接到深入报道。

利用 DGX 云租用 AI 超级计算基础设施

虽然英伟达为人工智能构建硬件已经有一段时间了,但这项技术需要一些时间才能得到大规模采用——部分原因是成本高。早在 2020 年,其 DGX A100 服务器盒的售价为 199,000 美元。为了改变这种状况,该公司今天宣布了DGX Cloud,该服务将允许企业通过网络浏览器访问其AI超级计算基础设施和软件。

DGX Cloud租用DGX服务器盒,每个盒子都有八个Nvidia H100或A100 GPU和640GB内存,单个节点每月收费36,999美元。

利用DGX Cloud的强大功能,该公司还宣布推出AI基础,以帮助企业创建和使用自定义生成AI模型。英伟达表示,该产品提供三种云服务:用于大型语言模型(LLM)的Nvidia NeMo,用于图像,视频和3D应用程序的Nvidia Picasso,以及基于生物数据生成科学文本的BioNeMO。

用于 AI 推理和建议的新硬件

除了DGX和AI基金会,Nvidia还推出了四个推理平台,旨在帮助开发人员快速构建专门的生成AI应用程序。这包括用于制作AI视频的Nvidia L4;用于 40D/2D 图像生成的 Nvidia L3;用于部署大型语言模型的 Nvidia H100 NVL;和 Nvidia Grace Hopper - 通过高速 900GB/秒相干芯片到芯片接口连接 Grace CPU 和 Hopper GPU,用于基于巨型数据集构建的推荐系统。

该公司表示,L4可以提供比CPU高120倍的AI视频性能,同时将能源效率提高99%;而 L40 作为 Omniverse 的引擎,与上一代产品相比,稳定扩散的推理性能提高了 7 倍,Omniverse 性能提高了 12 倍。

芯片制造商在Nvidia GTC上获得cuLitho

在活动现场,英伟达首席执行官黄简森上台宣布了用于计算光刻的 Nvidia cuLitho 软件库。正如Huang所解释的那样,该产品将使半导体企业能够设计和开发具有超小型晶体管和电线的芯片,同时加快上市时间并提高24/7全天候运行的大型数据中心的能源效率,以推动半导体制造过程。

“芯片行业是世界上几乎所有其他行业的基础,”黄说。“随着光刻技术达到物理学的极限,NVIDIA 引入 cuLitho 以及与我们的合作伙伴台积电、ASML 和 Synopsys 的合作使晶圆厂能够提高产量,减少碳足迹,并为 2nm 及更高领域奠定基础。”

该公司还宣布与美敦力和微软建立合作伙伴关系。它说,前者将导致开发一个通用的人工智能平台,用于能够改善患者护理的软件定义医疗设备。同时,后者将看到微软Azure主机Nvidia Omniverse和Nvidia DGX Cloud。

用于远程机器人设计等的 Isaac Sim

除了利用Azure作为主机外,在Omniverse方面,Nvidia还推出了Isaac Sim平台,该平台旨在使全球团队能够远程协作以构建,培训,模拟,验证和部署机器人。它说,该产品将帮助团队更快地完成设计。该公司还推出了Omniverse工作流程,以帮助汽车制造商实现运营数字化,并宣布宝马集团已开始推出其Omniverse平台,以设计其未来工厂的数字版本。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/2130.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

谷歌发布Bard,ChatGPT,Claude和Bing Chat的竞争对手

下一篇

GitHub 推出 Copilot X:人工智能软件开发的未来

微信公众号

微信公众号