Cerebras公布了LLM和生成AI工具的新合作伙伴关系

Cerebras公布了LLM和生成AI工具的新合作伙伴关系

大型语言模型 (LLM) 目前都是人工智能世界的话题,但训练它们可能具有挑战性且成本高昂;具有数十亿个参数的模型需要经验丰富的工程师数月的工作才能启动并(可靠且准确)运行。

Cerebras Systems和Cirrascale Cloud Services的新联合产品旨在通过让用户能够以比现有提供商更便宜的价格训练GPT级模型的能力,并且只需几行代码,使AI民主化。

“我们认为LLM被低估了,”Cerebras Systems首席执行官兼联合创始人Andrew Feldman在简报前表示。“明年,我们将看到LLM在经济各个方面的影响急剧上升。

同样,生成式人工智能可能是近代历史上最重要的技术进步之一,因为它能够从普通文本输入编写文档、创建图像和编码软件。

为了帮助加速采用并提高生成式 AI 的准确性,Cerebras 今天还宣布与 AI 内容平台 Jasper AI 建立新的合作伙伴关系。

“我们真的觉得生成式人工智能的下一章是不断变得越来越好的个性化模型,”Jasper首席执行官Dave Rogenmoser说。

他说,技术的第一阶段“非常令人兴奋”,但“它将变得更加令人兴奋。

释放研究机会

相对于LLM,传统的云提供商可能会遇到困难,因为他们无法保证大量GPU之间的延迟。Feldman解释说,在GPU之间分配大型AI模型时,可变延迟带来了复杂且耗时的挑战,并且“训练时间存在很动”。

新的Cerebras AI Model Studio托管在Cirrascale AI Innovation Cloud上,允许用户在Cerebras Wafer-Scale Clusters上训练生成变压器(GPT)级模型 - 包括GPT-J,GPT-3和GPT-NeoX。这包括新宣布的仙女座AI超级计算机。 

Feldman 表示,用户可以从最先进的 GPT 级模型中进行选择,范围从 1 亿个参数到 3 亿个参数,完成训练的速度比 A175 快 100 倍,价格仅为传统云提供商的一半。

例如,使用传统云在 GPT-J 上进行训练需要大约 64 天;Cerebras AI 模型工作室将其从零开始减少到八天。同样,在传统云上,仅 GPU 的生产成本就高达 61,000 美元;而在 Cerebras 上,整个生产运行的费用为 45,000 美元。

新工具消除了对DevOps和分布式编程的需求;按钮式模型扫描可以是 20 到 <> 亿个参数。可以用更长的序列长度训练模型,从而开辟新的研究机会。

“我们正在解锁一种全新的研究能力,以这种规模进行研究,”Cerebras产品负责人Andy Hock说。

正如Feldman所指出的那样,Cerebras的使命是“扩大深度学习的可及性,并迅速提高AI工作负载的性能。

他说,它新的AI模型工作室“简单而简单”。“我们已经组织了这个,所以你可以跳上去,你可以指向,你可以点击。

加速人工智能的潜力

与此同时,年轻的Jasper(成立于2021年)将使用Cerebras的Andromeda AI超级计算机在“一小部分时间内”训练其计算密集型模型,Rogenmoser说。

正如他所指出的,企业想要个性化的模型,“他们非常想要它们。

“他们希望这些模型变得更好,根据过去的使用数据,基于性能进行自我优化,”他说。

在本月在高性能计算、网络、存储和分析国际会议SC22上宣布的Andromeda小型工作负载的初步工作中,Jasper发现超级计算机完成了数千个GPU无法完成的工作。

该公司希望“大幅推进人工智能工作”,包括训练GPT网络,使人工智能输出适应最终用户复杂性和粒度的所有级别。这将使Jasper能够快速轻松地为多类客户提供个性化内容,Rogenmoser说。

他说,这种伙伴关系“使我们能够通过做传统基础设施不切实际或根本不可能的事情来创造生成人工智能的未来”。

Jasper 的产品被 100,000 名客户用于撰写营销、广告、书籍和其他材料的文案。Rogenmoser将该公司描述为通过充当“AI副驾驶”来消除“空白页的暴政”。

正如他所说,这让创作者能够专注于他们故事的关键元素,“而不是平凡的”。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/3012.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

Driftline推出使用心率信号量化人体耐力的算法

下一篇

2023 年对 AI、视频、芯片等的预测

微信公众号

微信公众号