如何才能确保 AI 世代的安全?IBM 有一些想法

如何才能确保 AI 世代的安全?IBM 有一些想法

随着组织越来越希望从生成式 AI 的强大功能中受益,安全性是一个日益严峻的挑战。

如今,科技巨头 IBM 正在通过引入新的安全框架来应对 AI 世代风险,旨在帮助客户应对 AI 世代带来的新风险。IBM Framework for Securing Generative AI 专注于在整个生命周期(从数据收集到生产部署)中保护生成 AI 工作流。该框架为组织在使用 AI 时最有可能面临的安全威胁提供了指导,并就要实施的顶级防御方法提出了建议。在过去的一年里,IBM 一直在通过其 watsonX 产品组合(包括模型和治理功能)来增强其 AI 功能。

“我们利用我们的专业知识并将其提炼出来,详细说明了最有可能的攻击以及我们认为对组织来说最重要的防御方法,以确保他们的生成式人工智能计划,”IBM Security新兴安全技术项目总监Ryan Dougherty告诉VentureBeat。

世代 AI 安全有什么不同?

IBM 在安全领域并不缺乏经验和技术资产。人工智能工作负载在某些方面面临的风险与任何其他类型的工作负载相似,在其他方面,它们也是新的和独特的。

IBM 方法的三个核心原则是保护数据、模型和使用。这三个租户的基础是确保在整个过程中有安全的基础设施和人工智能治理的总体需求。

IBM Fellow 兼 IBM Security 首席技术官 Sridhar Muppidi 向 VentureBeat 解释说,访问控制和基础设施安全等核心数据安全实践在 AI 世代中仍然至关重要,就像它们在所有其他形式的 IT 使用中一样。

也就是说,其他风险在某种程度上是 Gen AI 所独有的,例如数据中毒,其中虚假数据被添加到数据集中,可能导致结果不准确。偏见和数据多样性是人工智能数据中需要解决的另一组特殊风险。Muppidi 指出,数据漂移和数据隐私也是具有特定世代 AI 属性的风险,需要得到保护。

Muppidi 还指出了提示注入,即用户试图通过提示恶意修改模型的输出,这是另一个新兴的风险领域,需要组织采取新的控制措施。

MLSecOps、机器学习检测和响应以及新的 AI 安全环境

IBM Framework for Securing Generative AI 不是一个单一的工具,而是一组用于保护生成 AI 工作流的工具和实践的指南和建议。

也没有任何单一的术语来定义保护 AI 世代所需的不同类型的工具。生成式人工智能及其相关风险的出现导致了一系列新类别的安全首次亮相,包括机器学习检测和响应 (MLDR)、人工智能安全态势管理 (AISPM) 和机器学习安全运营 (MLSecOps)

MLDR 是关于扫描模型和识别潜在风险的,而 AISPM 在概念上类似于云安全态势管理 (CSPM),后者是关于拥有正确的配置和最佳实践以实现安全部署。

“就像我们有DevOps一样,我们增加了安全性并调用了DevSecOps,我们的想法是MLSecOps是一个完整的端到端生命周期,从设计到使用,它提供了安全性的注入,”Muppidi说。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/5473.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

OpenAI 推出适用于 Apple Vision Pro 的 ChatGPT 应用程序

下一篇

Typeface 通过多模态公告加速了 AI 内容竞赛

微信公众号

微信公众号