闪电AI首席执行官抨击OpenAI的GPT-4论文“伪装成研究”

闪电AI首席执行官抨击OpenAI的GPT-4论文“伪装成研究”

在OpenAI昨天出人意料地发布其期待已久的GPT-4模型后不久,网上就出现了大量关于该公告的批评:一份关于“GPT-98开发”的4页技术报告。

许多人表示,该报告之所以引人注目,主要是因为它没有包括的内容。在本技术报告的范围和限制部分中,它说:“鉴于竞争格局和GPT-4等大规模模型的安全影响,本报告不包含有关架构(包括模型大小),硬件,训练计算,数据集构建,训练方法或类似内容的进一步细节。

“我认为我们可以称之为'开放'AI:介绍GPT-98的4页论文自豪地宣布他们没有披露关于他们的训练集的内容,”Nomic AI信息设计副总裁Ben Schmidt发推文说。

巴黎高等金融学院(Ecole des Ponts ParisTech)的人工智能研究员大卫·皮卡德(David Picard)在推特上写道:“请@OpenAI尽快改名。称自己为'开放'并发布那种不包含任何技术信息的'技术报告'是对我们的情报的侮辱。

该报告的一个值得注意的批评者是William Falcon,他是Lightning AI的首席执行官,也是PyTorch Lightning的创建者,PyTorch Lightning是一个开源的Python库,为流行的深度学习框架PyTorch提供了高级接口。在他发布了以下模因后,我联系了Falcon征求意见。为清楚起见,本采访已经过编辑和压缩。

VentureBeat:现在有很多关于新发布的GPT-4研究论文的批评。最大的问题是什么?

威廉·法尔肯:我认为困扰每个人的是,OpenAI制作了一整篇长达90多页的论文。这让它感觉像是开源和学术性的,但事实并非如此。他们从字面上描述了那里的任何内容。当一篇学术论文说基准时,它会说'嘿,我们做得比这更好,这里有一种方法让你验证这一点。这里没有办法验证这一点。

如果你是一家公司,你说,“我的东西比这快10倍,这不是问题。我们将对此持保留态度。但是当你试图伪装成研究时,这就是问题所在。

当我发表论文时,或者社区中的任何人发表论文时,我会将其与人们已经拥有的东西进行基准比较,它们是公开的,我把代码放在那里,我告诉他们确切的数据是什么。通常,您可以在 GitHub 上运行代码来重现此问题。

VB:这和ChatGPT问世时有什么不同吗?还是达尔-E?那些伪装成研究的人是否以同样的方式?

隼: 不,他们不是。请记住,GPT-4 基于 Google 开源多年的 Transformer 架构。所以我们都知道这正是他们正在使用的。他们通常有代码要验证。它不是完全可复制的,但如果你知道自己在做什么,你就可以实现它。使用 GPT-4,您无法做到这一点。

我的公司与OpenAI没有竞争力。所以我们并不在乎。很多其他发推文的人都是竞争对手。所以他们的牛肉主要是他们无法复制结果。这是完全公平的——OpenAI不希望你继续复制他们的模型,这是有道理的。作为一家公司,您完全有权这样做。但你伪装成研究。这就是问题所在。

从GPT到ChatGPT,让它工作得很好的是RLHF,或者从人类反馈中强化学习。OpenAI表明这是有效的。他们不需要写一篇关于它如何工作的论文,因为这是一种已知的研究技术。如果我们在做饭,就像我们都知道如何炒菜一样,所以让我们试试这个。正因为如此,有很多像Anthropic这样的公司实际上复制了很多OpenAI的结果,因为他们知道配方是什么。所以我认为OpenAI现在试图做的,保护GPT-4不被再次复制,就是不让你知道它是如何完成的。

但是他们正在做其他事情,一些版本的RLHF没有开放,所以没有人知道那是什么。很可能是某种略有不同的技术使它起作用。老实说,我什至不知道它是否更好。听起来确实如此。我听到关于 GPT-4 的结果好坏参半。但关键是,那里有一个秘密成分,他们没有告诉任何人它是什么。这让每个人都感到困惑。

VB:所以在过去,即使它不能完全复制,你至少知道配方的基本成分是什么。但是现在这里有一些谁也认不清的新成分,比如肯德基秘方?

猎鹰:是的,就是这样。它甚至可能是他们的数据。也许没有变化。但是想想如果我给你一个炸鸡的食谱——我们都知道如何做炸鸡。但是突然间我做了一些稍微不同的事情,你就像等等,为什么会有所不同?你甚至无法识别成分。或者也许它甚至不是油炸的。谁知道呢?

这就像从 2015 年到 2019 年,我们试图弄清楚人们想吃什么食物作为一个研究领域。我们发现汉堡很受欢迎。从 2020 年到 2022 年,我们学会了将它们煮熟。在 2023 年,显然现在我们正在为汉堡添加秘密酱汁。

VB:我们是否担心这就是我们要去的地方——秘密成分甚至不会被分享,更不用说模型本身了?

猎鹰:是的,这将开创一个不好的先例。我对此有点难过。我们都来自学术界。我是一名人工智能研究员。因此,我们的价值观植根于开源和学术界。我来自Yann LeCun在Facebook的实验室,他们所做的一切都是开源的,他一直在这样做,他在FAIR做了很多。

我认为LLaMa,最近有一个引入的,这是这种思维的一个很好的例子。大多数人工智能世界都做到了这一点。我的公司是开源的,我们所做的一切都是开源的,其他公司都是开源的,我们为很多人工智能工具提供动力。因此,我们都为社区提供了很多,以使AI成为今天的位置。

OpenAI总体上一直支持这一点。他们玩得很好。现在,因为他们有这种货币化的压力,我认为今天是他们真正成为闭源的一天。他们刚刚脱离了社区。他们就像,我们不关心学术界,我们正在向硅谷出卖。

我们都有风险投资的资助,但我们仍然保持学术诚信。

VB:所以你会说这一步比谷歌、微软或元维基的任何东西都走得更远吗?

Falcon:是的,Meta是最开放的——我没有偏见,我来自那里,但他们仍然是最开放的。谷歌仍然有私人模型,但他们总是写出你可以复制的论文。现在可能真的很难,就像厨师或一些疯狂的餐厅写一个食谱,世界上四个人可以复制这个食谱,但如果你想尝试,它就在那里。谷歌总是这样做。所有这些公司都有。我认为[这是]我第一次看到这是不可能的,基于这篇论文。

VB:就道德或负责任的人工智能而言,这有什么危险?

Falcon:第一,有一大堆公司开始出现,但这些公司并不是来自学术界。他们是硅谷的创业型公司,他们并没有真正带来这些合乎道德的人工智能研究价值观。我认为OpenAI为他们树立了一个不好的先例。他们基本上是在说,这很酷,只要做你的事,我们不在乎。所以你会有所有这些公司,他们不再被激励去开源,告诉人们他们在做什么。

其次,如果这个模型出了问题,而且会出错,你已经看到了幻觉并给你虚假信息,社区应该如何反应?伦理研究人员应该如何去实际提出解决方案并说,这种方式行不通,也许调整它来做另一件事?

社区正在失去这一切,因此这些模型很快就会变得超级危险,而无需人员监视它们。而且审计起来真的很难。这有点像不属于FINRA的银行,比如你应该如何监管它?

VB:你认为OpenAI为什么要这样做?他们有没有其他方法既可以保护 GPT-4 免受复制又打开它?

猎鹰:可能还有其他原因,我有点了解山姆,但我读不懂他的心思。我认为他们更关心的是让产品发挥作用。他们肯定担心道德,并确保事情不会伤害人。我认为他们对此深思熟虑。

在这种情况下,我认为这实际上只是关于人们不复制,因为,如果你注意到,每次他们推出新的东西[它就会被复制]。让我们从稳定扩散开始。稳定扩散是多年前由OpenAI问世的。复制花了几年时间,但它是由Stability AI在开源中完成的。然后 ChatGPT 问世了,它只有几个月的历史,我们已经有一个非常好的开源版本。所以时间越来越短。

归根结底,它将归结为您拥有的数据,而不是您使用的特定模型或技术。因此,他们可以做的就是保护数据,他们已经这样做了。他们并没有真正告诉你他们训练的内容。所以这是人们可以做的主要事情。我只是认为,一般来说,公司需要停止担心模型本身是闭源的,而应该更多地担心数据和质量是你所捍卫的东西。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/2228.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

这家人工智能初创公司刚刚筹集了 350亿美元,用于接受培训的生成式 AI 使用各种软件工具和 API

下一篇

红帽将 OpenShift 扩展到生成式 AI 时代

微信公众号

微信公众号