审计算法:GPT-4 提醒人们,负责任的人工智能正在超越人类的规模

审计算法:GPT-4 提醒人们,负责任的人工智能正在超越人类的规模

人工智能(AI)正在彻底改变行业,简化流程,并希望改善世界各地人们的生活质量——所有这些都是非常令人兴奋的消息。也就是说,随着人工智能系统影响力的不断增强,确保负责任地开发和实施这些技术至关重要。

负责任的人工智能不仅仅是遵守法规和道德准则;这是创建更准确、更有效的 AI 模型的关键。

为什么负责任的 AI 会带来更准确、更有效的 AI 模型?

负责任的 AI 定义了以安全、公平和合乎道德的方式设计、开发和部署 AI 模型的承诺。通过确保模型按预期执行,并且不会产生不良结果,负责任的人工智能可以帮助增加信任、防止伤害并提高模型性能。

要负责任,人工智能必须是可以理解的。这已不再是人类规模的问题;我们需要算法来帮助我们理解算法。

GPT-4是OpenAI大型语言模型(LLM)的最新版本,是在互联网的文本和图像上进行训练的,众所周知,互联网充满了不准确之处,从小的错误陈述到全面的捏造。虽然这些谎言本身可能很危险,但它们也不可避免地会产生不那么准确和智能的人工智能模型。负责任的人工智能可以帮助我们解决这些问题,并朝着开发更好的人工智能的方向发展。具体来说,负责任的 AI 可以:

  1. 减少偏见:负责任的 AI 侧重于解决在开发过程中可能无意中内置到 AI 模型中的偏差。通过积极努力消除数据收集、培训和实施中的偏见,人工智能系统变得更加准确,并为更多样化的用户提供更好的结果。
  2. 增强通用性:负责任的 AI 鼓励开发在不同环境和不同人群中表现良好的模型。通过确保人工智能系统在广泛的场景中进行测试和验证,这些模型的通用性得到增强,从而产生更有效和适应性更强的解决方案。
  3. 确保透明度:负责任的人工智能强调人工智能系统透明度的重要性,使用户和利益相关者更容易理解决策是如何做出的,以及人工智能是如何运作的。这包括提供对算法、数据源和潜在限制的可理解的解释。通过提高透明度,负责任的人工智能可以促进信任和问责制,使用户能够做出明智的决策,并促进人工智能模型的有效评估和改进。

人工智能合规和道德规范

在欧盟,《通用数据保护条例》(GDPR)于2016年签署成为法律(并于2018年实施),以执行严格的数据隐私规则。

企业很快意识到,他们需要软件来跟踪他们在何处以及如何使用消费者数据,然后确保他们遵守这些法规。

OneTrust 是一家迅速崛起的公司,为企业提供了一个平台来管理与数据隐私相关的数据和流程。OneTrust自成立以来经历了令人难以置信的增长,其中大部分增长是由GDPR推动的。

我们认为,人工智能监管的当前和近期状态反映了数据隐私监管的 2015/2016 年时间框架;负责任人工智能的重要性开始在全球范围内得到认可,各种法规正在成为推动道德人工智能开发和部署的一种方式。

  1. 欧盟人工智能法案 2021 年 2023 月,欧盟委员会提出了新的法规——《欧盟人工智能法案
    》,以在欧盟为人工智能建立法律框架。该提案包括有关透明度、问责制和用户权利的规定,旨在确保人工智能系统安全并尊重基本权利。我们相信,欧盟将继续在人工智能监管方面处于领先地位。欧盟AIA预计将于2024年底通过,立法将于2025/<>年生效。
  2. 美国的人工智能监管和举措
    欧盟AIA可能会为美国和其他国家/地区的监管定下基调。在美国,FTC等理事机构已经在制定自己的一套规则,特别是与人工智能决策和偏见相关的规则;NIST已经发布了一个风险管理框架,可能会为美国监管提供信息。

到目前为止,在联邦层面,几乎没有关于监管人工智能的评论,拜登政府发布了人工智能权利法案——关于人工智能系统设计和使用的不具约束力的指南。然而,国会也在审查 2022 年的《算法问责法案》,要求对人工智能系统进行影响评估,以检查偏见和有效性。但这些法规并没有很快通过。

有趣的是(但也许并不奇怪),美国监管人工智能的许多早期努力都是在州和地方层面进行的,其中大部分立法针对人力资源技术和保险。纽约市已经通过了第 144 号地方法律,也称为纽约市偏见审计授权,该法律于 2023 年 <> 月生效,禁止公司使用自动化就业决策工具在纽约市雇用候选人或晋升员工,除非这些工具已经过独立审计偏见。

加利福尼亚州已经提出了与自动决策系统相关的类似就业法规,伊利诺伊州已经制定了关于在视频面试中使用人工智能的立法。

在保险领域,科罗拉多州保险部提出了被称为算法和预测模型治理法规的立法,旨在“保护消费者免受保险实践中的不公平歧视”。

软件在确保负责任的人工智能方面的作用

很明显,监管机构(从欧盟开始,然后在其他地方扩张)和企业将非常认真地对待人工智能系统和相关数据。由于不合规和由于不了解人工智能模型而导致的错误,我们将受到重大的经济处罚 - 我们认为商业声誉将面临风险。

将需要专门构建的软件来跟踪和管理合规性;监管将成为技术采用的主要推动力。具体而言,软件解决方案在管理与负责任人工智能相关的道德和监管挑战方面的关键作用包括:

  1. AI 模型跟踪和清单:软件工具可以帮助组织维护其 AI 模型的清单,包括其用途、数据源和性能指标。这样可以更好地监督和管理人工智能系统,确保它们遵守道德准则并遵守相关法规。
  2. 人工智能风险评估和监测:人工智能驱动的风险评估工具可以评估与人工智能模型相关的潜在风险,例如偏见、数据隐私问题和道德问题。通过持续监控这些风险,组织可以主动解决任何潜在问题并保持负责任的 AI 实践。
  3. 算法审计:在未来,我们可以期待能够审计其他算法的算法的出现——圣杯!这不再是人类规模的问题,因为这些模型需要大量的数据和计算能力。这将允许对人工智能模型进行实时、自动化、公正的评估,确保它们符合道德标准并遵守监管要求。

这些软件解决方案不仅简化了合规流程,还有助于开发和部署更准确、合乎道德和更有效的人工智能模型。通过利用技术来应对负责任人工智能的挑战,组织可以培养对人工智能系统的信任并释放其全部潜力。

负责任的 AI 的重要性

总之,负责任的人工智能是开发准确、有效和值得信赖的人工智能系统的基础;通过解决偏见、增强通用性、确保透明度和保护用户隐私,负责任的 AI 可以产生性能更好的 AI 模型。遵守法规和道德准则对于促进公众对人工智能技术的信任和接受至关重要,随着人工智能不断进步并渗透到我们的生活中,对支持负责任人工智能实践的软件解决方案的需求只会增长。

通过承担这一责任,我们可以确保人工智能成功融入社会,并利用其力量为所有人创造更美好的未来!

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/1890.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

如何使用大型语言模型和知识图谱来管理企业数据

下一篇

关于生成式人工智能的很多事情:金钱、潜力、陷阱

微信公众号

微信公众号