OpenAI 希望构建比我们更智能的系统

OpenAI 希望构建比我们更智能的系统

OpenAI是ChatGPT的创造者,也是必应悉尼聊天机器人的底层技术,它一直有一个雄心勃勃的使命:为世界带来通常比人类更聪明的人工智能系统。

在上周一篇题为“规划AGI及以后”的帖子中,OpenAI首席执行官Sam Altman解释了该公司的意思:OpenAI将逐步构建和发布更强大的系统,他认为这是确保向超级智能世界的可怕过渡顺利进行的最佳方法。

“成功过渡到一个拥有超级智能的世界可能是人类历史上最重要、最有希望、最可怕的项目,”奥尔特曼写道。“成功远未得到保证,赌注(无限的下行和无限的上行)有望使我们所有人团结起来。

我不同意OpenAI实现AGI计划的许多细节,但我认为这个声明做了一件非常有价值的事情:它清楚地表明了OpenAI正在努力做什么,以便它可以受到其领导层承认需要的那种问责制和外部审查。

信守开放人工智能

直到最近,我认为很少有人真正认真对待OpenAI的声明,即它正在研究一项改变世界的技术。毕竟,科技公司经常宣称他们将“改变世界”,而且同样常见的是,这都是营销,没有实质内容。如果你认为OpenAI只是在进行无实质内容的炒作,那么几乎没有理由深入研究OpenAI计划的细节,谈论问责制,或者试图参与如何使强大的AI顺利进行的问题。

“读到对Open AI LP的一些批评反应,让我印象深刻的一件事是,你的大多数批评者都不相信你会建立AGI,”我在2019年对OpenAI的联合创始人兼总裁格雷格·布罗克曼(Greg Brockman)说。“所以大多数批评都是:'这是一个童话故事。这当然是一个重要的批评角度。但似乎可能缺乏批评者,他们说,'好吧。我相信你,你有很大的机会——一个值得思考的机会——你将建立AGI......我想追究你的责任。

“我想我更进一步,”布罗克曼当时说,“不仅仅是人们不相信我们会这样做,而且那些甚至不相信我们相信我们会这样做的人。

自从OpenAI说它旨在开发非常强大的AI系统时,它的意思变得更加清晰,正如Altman最近所说,“糟糕的情况 - 我认为这很重要 - 对我们所有人来说就像熄灯一样。

ChatGPT 拥有超过 100 亿用户,并引发了科技公司之间的竞赛,以自己的语言模型超越它。OpenAI的估值已经飙升至100多亿美元。在这一点上,OpenAI正在推动公众对AI的了解,对AI的热情,围绕AI的竞争以及强大系统的开发。

“科技公司还没有为下一代人工智能技术部署速度令人眼花缭乱的后果做好充分准备,”纽约大学教授加里·马库斯(Gary Marcus)最近指出,他认为“全球缺乏确保人工智能一致性的全面政策框架 - 即确保人工智能功能不会伤害人类的保障措施 - 乞求一种新的方法。一种明显的新方法——也是他所青睐的方法——是放慢强大系统的部署速度。

但OpenAI认为我们应该做完全相反的事情。

急于尽快开发强大AI的理论

如果你认为人工智能是非常危险的,就像许多专家所做的那样,正如Altman自己所说的那样,那么急于尽快发布新的、更强大的模型似乎很奇怪。鉴于对现有模型的严重担忧,OpenAI因其快速发布而受到激烈批评(我认为这是合理的),而“规划AGI及以后”最好被解读为对这些批评的部分回应。

这种反应基本上有两个要素。一个是Altman认为,当涉及到人工智能时,我们将通过实践来学习:发布模型将帮助我们注意到它们的问题,探索它们的怪癖,并弄清楚它们出了什么问题。“我们相信,我们必须通过部署功能较弱的技术版本来不断学习和适应,以尽量减少'一次成功'的情况,”他写道。

论点的另一部分关键(主要在脚注中提出)是,如果我们开发非常强大的人类水平的人工智能系统,这将有利于人类解决对齐问题的努力,而这样做仍然非常昂贵,而不是推迟到这样做变得非常便宜。(随着时间的推移,计算机芯片会变得更便宜,所以我们应该期望我们在2030年能做的任何事情都能在2040年更便宜地做。

我已经看到这被解读为OpenAI无论如何都想做的事情的事后合理化,即发明许多非常酷的东西,而不是在现有模型上做不太有价值的安全工作。很难排除其中的一个因素,但我认为这里也有一个真正的论点。

正在开发的极其强大和危险的系统有很多优势,而这样做的成本很高:参与竞赛的参与者将更少,在不影响大量经济的情况下更容易监管和审计先进的人工智能系统,一些人工智能灾难场景变得不太可能,因为人工智能系统的能力可能更难快速增长。

有了人工智能,我们都是利益相关者

但真正的问题——正如Altman或多或少承认的那样——是,对于OpenAI来说,这是一个高风险的决定,它或多或少可以自己做。急于开发强大的系统可能会杀死地球上的每个人。但这并不是纯粹的缺点——OpenAI讨论的一些优势是真实的。

我们应该这样做吗?我倾向于不,但我确信,做出决定的方式是由每个人工智能公司自己决定是否全力以赴是荒谬的。

OpenAI说了所有关于不想单方面进行的事情,主张外部审计和监督,并承诺随着越来越多的强大系统的部署,它可能会重新考虑其快速发展的方法。但在实践中,担心强大的人工智能系统仍然是相当小众的,其他利益相关者——也就是说,每个活着的人——都没有好办法为OpenAI提供有用的监督。

我不想在这里专门追求OpenAI。在描述它正在做什么以及它认为什么是利害攸关的时,它吸引了很多关注,如果它从未承认AGI是它的最终目标,它本可以避免这些关注。

许多其他人工智能实验室的情况更糟。Facebook的Yann LeCun也表示,他的目标是制造能够“推理和计划”以及“像人类和动物一样高效学习”的机器,他在《科学美国人》上写道,所有关于非凡风险的讨论都是愚蠢的:“为什么一个有知觉的人工智能想要接管世界?不会的。

但是,尽管我赞扬OpenAI说风险是真实的,并解释说它的方法就是管理风险的最佳方法,但我仍然怀疑尽快开发令人难以置信的强大AI系统的好处是否超过了这样做的风险 - 我希望OpenAI在说它对外部检查时是认真的。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/755.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

微软从ChatGPT创造者身上押注数十亿美元得到了什么

下一篇

巴德来了,谷歌版本的ChatGPT

微信公众号

微信公众号