AI 输出是否受语音保护?不,这是一个危险的提议,法律专家说

AI 输出是否受语音保护?不,这是一个危险的提议,法律专家说

不可否认,生成式人工智能具有演讲能力,其产生的内容似乎是知情的,通常具有说服力和高度表现力。

鉴于言论自由是一项基本人权,美国的一些法律专家挑衅性地表示,大型语言模型(LLM)输出受到第一修正案的保护,这意味着即使是可能非常危险的世代也将不受谴责和政府控制。

但休斯顿大学法律中心(University of Houston Law Center)法学助理教授彼得·萨利布(Peter Salib)希望扭转这一立场——他警告说,人工智能必须得到适当的监管,以防止潜在的灾难性后果。他在这一领域的工作将于今年晚些时候发表在《华盛顿大学法学院评论》上。

“受保护的言论是一个神圣不可侵犯的宪法类别,”萨利布告诉VentureBeat,并引用了一个新的更先进的OpenAI LLM的假设例子。“如果 GPT-5 [或其他模型] 的输出确实是受保护的言论,那么我们监管这些系统的能力将是相当可怕的。”

支持受保护的人工智能言论的论据

大约一年前,法律记者本杰明·威特斯(Benjamin Wittes)写道:“我们已经创造了第一台具有第一修正案权利的机器。

他认为,ChatGPT和类似的系统是“不可否认的表达能力”,并创造了“不可否认的语音”输出。他们生成内容、图像和文本,与人类对话并发表意见。

“当由人产生时,第一修正案适用于所有这些材料,”他争辩说。是的,这些输出是“其他内容的衍生物”,而不是原创的,但“许多人也从未有过原创思想”。

而且,他指出,“第一修正案不保护原创性。它保护了表达。

萨利布指出,其他学者也开始同意这一点,因为生成式人工智能的输出“非常像语音,它们一定是某人受保护的言论”。

这导致一些人争辩说,他们生成的材料是他们的人类程序员的受保护言论。另一方面,其他人则认为人工智能输出的是其公司所有者(例如 ChatGPT)的受保护言论,这些所有者拥有第一修正案的权利。

然而,萨利布断言,“人工智能输出不是来自任何具有第一修正案权利的演讲者的通信。人工智能的输出不是任何人的表达。

输出变得越来越危险

人工智能正在迅速发展,并且能力越来越强,在更广泛的领域做得更好,并以更像智能体、自主和开放式的方式使用。

“最有能力的人工智能系统的能力正在迅速发展 - 这带来了风险和挑战,”萨利布说,他也是人工智能安全中心的法律和政策顾问。

他指出,人工智能已经可以发明比VX(毒性最强的神经毒剂之一)更致命的新型化学武器,并帮助恶意人类合成它们;帮助非程序员入侵重要基础设施;并玩“复杂的操纵游戏”。

他指出,例如,ChatGPT和其他系统现在可以帮助人类用户合成氰化物,这一事实表明它可能会被诱导做一些更危险的事情。

“有强有力的经验证据表明,不久的将来,生成式人工智能系统将对人类生命、肢体和自由构成严重风险,”萨利布在他77页的论文中写道。

萨利布断言,这可能包括生物恐怖主义和制造“新型大流行病毒”以及对关键基础设施的攻击——人工智能甚至可以执行基于无人机的全自动政治暗杀。

人工智能是会说话的,但它不是人类的说话

世界各国领导人正在认识到这些危险,并正在制定有关安全和道德人工智能的法规。这个想法是,这些法律将要求系统拒绝做危险的事情或禁止人类发布他们的输出,最终“惩罚”模型或制造它们的公司。

萨利布指出,从外部看,这看起来像是审查言论的法律,因为ChatGPT和其他模型正在生成无疑是“言论”的内容。

如果人工智能言论受到保护,并且美国政府试图对其进行监管,那么这些法律将不得不清除由最令人信服的国家利益支持的极高障碍。

例如,萨利布说,有人可以自由地断言,“为了实现无产阶级专政,必须用武力推翻政府。但是,除非他们大声疾呼“迫在眉睫”和“可能”的违法行为(迫在眉睫的无法无天行为测试),否则他们不会受到惩罚。

这意味着监管机构无法监管ChatGPT或OpenAI,除非它会导致“迫在眉睫的大规模灾难”。

萨利布写道:“如果人工智能输出最好被理解为受保护的言论,那么直接监管它们的法律,即使是为了促进安全,也必须满足最严格的宪法测试。

人工智能不同于其他软件输出

显然,一些软件的输出是其创建者的表达。例如,视频游戏设计师心中有一些具体的想法,他们希望通过软件将其融入其中。或者,用户在 Twitter 上输入内容是希望以他们的声音进行交流。

但人工智能在概念和技术上都大不相同,萨利布说。

“制作 GPT-5 的人并不是在尝试制作能说些什么的软件;他们正在制作什么都能说的软件,“萨利布说。他们正在寻求“传达所有信息,包括数百万个他们从未想过的想法。

用户提出开放性问题,让模型提供他们不知道或内容的答案

“这就是为什么它不是人类的语言,”萨利布说。因此,人工智能不属于“获得最高宪法保护的最神圣的类别”。

在进一步探索通用人工智能(AGI)领域时,一些人开始争辩说,人工智能的输出属于系统本身。

“也许这是对的——这些东西是非常自主的,”萨利布承认。

但是,即使他们正在做“独立于人类的演讲”,也不足以赋予他们根据美国宪法享有第一修正案的权利。

“世界上有许多有情众生没有第一修正案的权利,”萨利布指出,比如比利时人或花栗鼠。

“不人道的人工智能有朝一日可能会加入第一修正案权利持有者的社区,”萨利布写道。“但就目前而言,他们和世界上大多数人类一样,仍然置身于它之外。

是企业演讲吗?

公司也不是人,但他们有言论权。这是因为它们是“构成它们的人类权利的衍生物”。这仅在必要时延伸,以防止原本受保护的言论在与公司接触时失去这种保护。

“我的论点是,公司的言论权寄生在组成公司的人的权利上,”萨利布说。

例如,拥有第一修正案权利的人有时不得不使用公司来说话——例如,作者需要兰登书屋来出版他们的书。

“但是,如果LLM一开始就没有产生受保护的言论,那么当它被公司购买或通过公司传播时,它就成为受保护的言论是没有意义的,”萨利布说。

调节输出,而不是过程

萨利布认为,降低未来风险的最佳方法是对人工智能输出本身进行监管。

虽然有些人会说解决方案是首先防止系统产生不良输出,但这根本不可行。由于自编程、“不可解释性”和通用性,无法阻止 LLM 创建输出——这意味着它们对人类来说在很大程度上是不可预测的,即使使用具有人类反馈的强化学习 (RLHF) 等技术也是如此。

“因此,目前没有办法制定强制执行安全代码的法律规则,”萨利布写道。

相反,成功的人工智能安全法规必须包括关于允许模型“说什么”的规则。规则可以改变——例如,如果人工智能的输出通常非常危险,法律可能会要求模型保持未发布状态,“甚至被摧毁”。或者,如果产出只是轻微的危险和偶尔的,则可以适用按产出赔偿责任规则。

反过来,所有这些都会给人工智能公司带来更强的动力,让他们投资于安全研究和严格的协议。

萨利布强调,无论它最终如何形成,“法律必须旨在防止人们被欺骗、伤害或杀害。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/5631.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

AI视频创业公司Haiper从隐身中脱颖而出,计划构建具有完整感知能力的AGI

下一篇

OpenAI:“我们打算驳回埃隆·马斯克(Elon Musk)诉讼的所有主张”

微信公众号

微信公众号