负责任的 AI 是大规模实现 AI 的必要条件

负责任的 AI 是大规模实现 AI 的必要条件

专家说,当谈到大规模应用人工智能时,负责任的人工智能不能是事后的想法。

“人工智能是负责任的人工智能——它们之间真的没有区别,”波士顿咨询集团(BCG)董事总经理兼高级合伙人Tad Roselund说。

而且,他强调,负责任的人工智能(RAI)不是你在流程结束时才做的事情。“从人工智能开始时,作为桌子周围的一个想法,在餐巾纸上,到然后以可扩展的方式在整个企业中部署的东西,都必须包括在内。

在大规模应用 AI 时,确保负责任的 AI 处于前沿和中心是世界经济论坛最近一篇文章的主题,该文章由 BCG 高级负责任 AI 领导者兼蒙特利尔 AI 伦理研究所创始人 Abhishek Gupta 撰写;BCG 合伙人兼首席 AI 道德官 Steven Mills;以及世界经济论坛人工智能和机器学习负责人兼执行委员会成员凯·弗斯-巴特菲尔德。

“随着越来越多的组织开始他们的人工智能之旅,他们正处于不得不做出选择的风口浪尖,是将稀缺资源用于扩展他们的人工智能工作,还是事先将投资用于扩展负责任的人工智能,”文章说。“我们认为,他们应该做后者,以实现持续的成功和更好的投资回报。

负责任 AI (RAI) 对于每个组织来说可能看起来都不同

RAI 没有公认的定义。布鲁金斯研究小组将其定义为“道德和负责任的”人工智能,但表示“透明、公平、安全和包容的人工智能系统是广泛主张的负责任人工智能框架的核心要素,但每个小组如何解释和操作它们可能会有所不同。

这意味着,至少从表面上看,RAI可能看起来有点不同,Roselund说。

“它必须反映一个组织的基本价值观和宗旨,”他说。“不同的公司有不同的价值陈述。

他指出,BCG最近的一项调查发现,超过80%的组织认为人工智能具有彻底改变流程的巨大潜力。

“它被视为整个组织中许多核心流程的下一波创新浪潮,”他说。

与此同时,只有25%的人完全部署了RAI。

他说,要做到这一点,意味着将负责任的人工智能纳入系统、流程、文化、治理、战略和风险管理。当组织与RAI作斗争时,这是因为概念和流程往往孤立在一个群体中。

将 RAI 构建到基础流程中还可以最大限度地降低影子 AI 或 IT 部门无法控制的解决方案的风险。Roselund指出,虽然组织并不厌恶风险,但“他们厌恶意外”。

最终,“你不希望RAI成为独立的东西,你希望它成为一个组织结构的一部分,”他说。

自上而下的领导

Roselund用了一个有趣的比喻来形容成功的RAI:一辆赛车。

赛车可以非常快地行驶并在弯道上咆哮的原因之一是它有适当的制动器。当被问及时,司机们说他们可以在赛道上滑行,“因为我相信我的刹车”。

他说,RAI与最高管理层和董事会类似,因为当流程到位时,领导者可以鼓励和释放创新。

“这是高层的基调,”他说。“首席执行官[和]最高管理层为组织设定了基调,表明什么是重要的。

毫无疑问,RAI是所有的嗡嗡声,他说。“每个人都在谈论这个,”罗塞隆德说。“这是在董事会中由最高管理层谈论的。

这类似于组织认真对待网络安全或可持续性的情况。他解释说,那些做得好的人拥有“最高级别的所有权”。

关键原则

好消息是,最终,人工智能可以负责任地扩展,机器语言测试公司TruEra的首席执行官Will Uppington说。

他说,已经开发出许多针对人工智能缺陷的解决方案,组织正在实施它们;它们还从模型开发一开始就结合了可解释性、鲁棒性、准确性和偏差最小化。

成功的组织在模型上线后,还会对模型采用可观察性、监控和报告方法,以确保模型继续以有效、公平的方式运行。

“另一个好消息是,负责任的人工智能也是高性能的人工智能,”Uppington说。

他确定了几个新兴的RAI原则:

  • 可解释性
  • 透明度和追索权
  • 防止不公正的歧视
  • 人工监督
  • 鲁棒性
  • 隐私和数据治理
  • 问 责
  • 可审计性
  • 相称性(即治理和控制的程度与基础模型/系统的重要性和风险成正比)

制定 RAI 策略

一个普遍同意的指南是RAFT框架。

“这意味着要研究人工智能系统的可靠性、问责制、公平性和透明度在组织层面和不同类型的用例中可以而且应该是什么样子,”Dataiku 负责人工智能负责人 Triveni Gandhi 说。

她说,这种规模很重要,因为RAI对于实现更高层次的雄心具有战略意义,并且还可以塑造团队的组织方式。

她补充说,隐私、安全和以人为本的方法必须成为有凝聚力的人工智能战略的组成部分。管理个人数据的权利以及何时收集或使用个人数据变得越来越重要。围绕人工智能如何被恶意行为者滥用或影响的安全实践引起了人们的关注。

而且,“最重要的是,以人为本的人工智能方法意味着退后一步,准确理解我们希望人工智能对我们人类体验的影响和作用,”甘地说。

负责任地扩展 AI 首先要确定 AI 的目标和期望,并定义企业希望 AI 在其组织和客户中产生何种影响的界限。然后,这些可以转化为可操作的标准和可接受的风险阈值、签核和监督流程以及定期审查。

为什么选择RAI?

毫无疑问,“负责任的人工智能作为一个概念似乎令人生畏,”甘地说。

“在回答'为什么要负责任的人工智能?'方面:今天,越来越多的公司意识到没有系统地、主动地管理人工智能系统的风险和意外结果的道德、声誉和商业层面的成本,”她说。

她补充说,能够结合更大的人工智能治理来构建和实施RAI框架的组织能够预测和缓解 - 甚至在理想情况下避免 - 扩展人工智能的关键陷阱。

而且,Uppington说,RAI可以通过建立对AI的缺陷将得到管理的信任来实现更大的采用。

“此外,人工智能系统不仅可以设计成不会产生新的偏见,还可以用于减少人类驱动系统中已经存在的社会偏见,”他说。

组织必须将 RAI 视为其开展业务方式的关键;它关乎绩效、风险管理和有效性。

“这是从一开始就内置在人工智能生命周期中的东西,因为正确处理会带来巨大的好处,”他说。

底线:对于寻求成功大规模应用人工智能的组织来说,RAI至关重要。Uppington警告说:“负责任的人工智能不仅仅是公司承担的一个感觉良好的项目。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/2222.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

红帽将 OpenShift 扩展到生成式 AI 时代

下一篇

合成数据如何大规模推动人工智能的发展

微信公众号

微信公众号