AWS 将向 Amazon Bedrock 添加 Mistral 开源 AI 模型

AWS 将向 Amazon Bedrock 添加 Mistral 开源 AI 模型

在云服务器提供商之间为向客户提供最全面的生成式 AI 模型的持续战争中,Amazon Web Services (AWS) 首席开发人员倡导者 Donnie Prakoso 今天在一篇博客文章中宣布,这家云领导者将把开源 LLM 从炙手可热的法国初创公司 Mistral 带到 Amazon Bedrock,其针对Gen AI产品和应用程序开发的托管服务于去年推出。

具体来说,Mistral的两款型号——Mistral 7B和Mixtral 8x7B,将通过该服务提供,尽管没有指定日期,只是“即将推出”。当他们准备好时,他们将出现在这里。

Mistral 模型对 AWS 客户的优势

根据 Prakoso 的博客文章,Mistral 7B 专为提高效率而设计,需要低内存,同时提供高吞吐量,并支持广泛的用例,包括文本摘要、分类、补全和代码补全。

另一方面,Mixtral 8x7B 功能更强大,它使用专家混合 (MoE) 模型以更多语言(英语、法语、德语、西班牙语、意大利语)执行文本摘要、问答、文本分类、文本补全和代码生成。

直到最近,Mixtral 8x7B 还被评为世界上最高的开源 LLM,在某些任务上的性能接近 GPT-4 级别,但 Smaug-72B 最近超过了它。

为什么要把米斯特拉尔放在基岩上?

根据 Prasko 的博客,AWS 选择将 Mistral AI 的模型整合到 Amazon Bedrock 中,是基于几个令人信服的因素。

  • 性价比平衡:Mistral AI 的模型体现了成本和性能之间的出色平衡。它们高效、经济实惠且可扩展的特性使它们成为希望利用生成式 AI 而不会产生高昂成本的开发人员和组织的有吸引力的选择。
  • 推理速度快:Mistral AI 模型强调低延迟、低内存要求和高吞吐量,针对快速推理速度进行了优化。此功能对于有效扩展生产用例至关重要。
  • 透明度和可定制性:Mistral AI 支持其模型的透明度和可定制性,使组织能够遵守严格的监管要求。
  • 可及性:这些模型旨在为广大受众提供便利,促进生成式 AI 功能集成到各种组织的应用程序中,无论其规模如何。

AWS提供广泛的模型是完全有意义的,此举是在其云竞争对手Microsoft将Meta的开源Llama AI模型添加到其Azure AI Studio(Bedrock的竞争对手)之后进行的。但与此同时,亚马逊还对另一家闭源竞争对手人工智能模型提供商Anthropic进行了大量投资,有报道称亚马逊正在疯狂开发自己的内部人工智能基础模型。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/5581.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

Gartner 表示,生成式 AI、IAM、基于文化的计划将在 2024 年塑造网络安全

下一篇

高通在世界移动通信大会上推出人工智能和连接芯片

微信公众号

微信公众号