更合乎道德的人工智能?Quite Trained 推出以认证基于许可数据训练的 AI 工具

更合乎道德的人工智能?Quite Trained 推出以认证基于许可数据训练的 AI 工具

在某种程度上,这是生成式人工智能的“原罪”:OpenAI 和 Meta 等公司的许多领先模型都是在事先不知情或未经发布者明确许可的情况下,使用从网络上抓取的数据进行训练的。

采取这种方法的人工智能公司认为,这是公平的游戏,也是法律允许的。正如 OpenAI 在最近的一篇博客文章中所说:“使用公开的互联网材料训练 AI 模型是合理使用的,这得到了长期存在且被广泛接受的先例的支持。我们认为这一原则对创作者是公平的,对创新者是必要的,对美国的竞争力至关重要。

事实上,早在生成式人工智能成为最新的技术轰动之前,同样类型的数据抓取就已经发生了,并被用于为许多研究数据库和流行的商业产品提供动力,包括像谷歌这样的搜索引擎,数据发布者依靠这些搜索引擎来吸引流量和受众到他们的项目。

尽管如此,反对这种类型的数据抓取的声音越来越大,许多畅销书作家和艺术家起诉各种人工智能公司,指控他们在未经明确同意的情况下通过训练他们的作品来侵犯版权。(VentureBeat 使用一些被起诉的公司,包括 Midjourney 和 OpenAI,为我们的文章创建标题插图。

现在,一个新的组织已经出现,以支持那些认为数据创建者和发布者在他们的工作用于人工智能训练之前应该事先征得同意的人。

这家名为“Quite Trained”的非营利组织今天宣布成立,由首席执行官埃德·牛顿-雷克斯(Ed Newton-Rex)共同创立和领导,他是一名前雇员,后来成为Stability AI的反对者,该公司是广泛使用的Stable Diffusion开源图像生成服务背后的公司,以及其他AI模型。

“我们相信,有许多消费者和公司更愿意与生成式人工智能公司合作,这些公司使用经其创建者同意提供的数据进行训练,”该组织的网站写道。

尊重人工智能?

“我坚信,生成式人工智能有一条前进的道路,可以给予创作者应有的尊重,而许可训练数据是关键,”Newton-Rex在社交网络X上的一篇文章中写道,“如果你在一家采用这种方法的生成式人工智能公司工作或认识,我希望你能考虑获得认证。

VentureBeat 通过电子邮件联系了 Newton-Rex,向他询问了领先的 AI 公司和支持者的共同论点,即在公开可用的数据上进行训练类似于人类在观察其他艺术作品和创意材料时已经被动地做的事情,这些作品和创意材料可能会在以后有意识或无意地激发他们的灵感。他没有。正如他在回应中所写的那样:

“我认为这个论点是有缺陷的,原因有两个。首先,人工智能可以扩展。一个单一的人工智能,经过世界上所有内容的训练,可以产生足够的输出来取代对大部分内容的需求。没有人可以以这种方式扩展。其次,人类的学习是长期建立的社会契约的一部分。每个写书、画画或创作歌曲的创作者都知道其他人会从中学习。这是有价的。人工智能绝对不是这种情况。这些创作者在创作和发布他们的作品时,并没有期望人工智能系统能够从中学习,然后能够大规模地制作竞争性内容。人工智能训练行为的社会契约从未到位。人工智能训练与人类学习不同,基于不同的假设和不同的效果。它应该被这样对待。

很公平。但是,那些已经接受过在线公开发布数据培训的公司呢?

Netwton-Rex建议他们改变方向,在获得创建者许可的数据上训练新模型,最好是从他们那里获得许可,可能是收费的。(这是OpenAI最近与新闻媒体采用的方法,包括美联社和Politico和Business Insider的出版商Axel-Springer,据报道,OpenAI每年支付数百万美元来使用他们的数据。然而,OpenAI继续捍卫其收集和训练公共数据的权利,即使没有许可协议。

“我唯一的建议是,他们(人工智能公司通常)改变他们的方法,转向许可模式。我们仍处于生成式人工智能发展的早期阶段,仍有时间帮助创建一个生态系统,在这个生态系统中,人类创造者和人工智能公司所做的工作是互惠互利的,“Newton-Rex写道。

认证 — 收费

Fair Trained 在一篇博文中详细阐述了其成立背后的动机:

“在两种类型的生成式人工智能公司之间出现了分歧:那些获得训练数据提供者同意的公司,以及那些声称他们没有法律义务这样做的公司。我们知道,有许多消费者和公司更愿意与前者合作,因为他们尊重创作者的权利。但现在很难说哪些人工智能公司采取了哪种方法。

换句话说:Quite Trained 仍然希望人们能够使用生成式人工智能工具和服务。该组织只是想帮助消费者找到并选择使用明确授权给人工智能公司的数据进行训练的工具,而不是在网络上搜刮任何公开发布的内容。

为了帮助消费者做出这种明智的决定,Fair Trained 为 AI 提供商提供“许可模型 (L) 认证”。

许可模型 (L) 认证流程在 Fair Trained 网站上进行了概述,最终涉及 AI 公司填写在线表格,然后从 Quite Trained 经过更长的书面提交过程,最终完成书面提交和潜在的后续问题。

Fairly Trained 根据公司的年收入向寻求 L 认证的公司收取此服务的费用,从每年 150 美元 + 500 美元的一次性提交费到每年收入超过 1000 万美元的公司每年 500 美元 + 6,000 美元的一次性费用不等。

VentureBeat通过电子邮件联系了Newton-Rex,询问非营利组织为什么收费,他回答说:“我们收取费用来支付我们的成本。我认为这些费用足够低,对于生成式人工智能公司来说不应该是高高在上的。

一些公司已经寻求并获得了 L 认证 Quite Trained offer,包括 Beatoven.AI、Boomy、BRIA AI、Endel、LifeScore、Rightsify、Somms.ai、Soundful 和 Tuney。Netwon-Rex表示,这些人工智能公司的认证过程发生在“上个月左右”,但拒绝评论哪些公司支付了费用以及他们支付了多少费用。

当被问及介于公共抓取方法和许可方法之间的其他服务时,例如Adobe或Shutterstock,它们表示他们的库存图像库服务条款允许他们在创作者的作品(以及其他用途)上训练Gen AI模型,Newton-Rex也推迟了。

“我们宁愿不对未经认证的特定型号发表评论,”他写道。“如果他们觉得自己训练的模型符合我们的认证要求,我希望他们能申请认证。”

值得注意的顾问和支持者

根据其网站,Quite Trained的顾问包括Siri(被苹果收购)的前首席技术专家Tom Gruber和美国出版商协会总裁兼首席执行官Maria Pallante。

该非营利组织还表示,其支持者包括美国出版商协会、独立音乐出版商协会、康科德(领先的音乐和音频集团)和环球音乐集团。后两个团体正在起诉人工智能公司Anthropic,因为其Claude聊天机器人复制了受版权保护的歌词。

当被问及 Fair Trained 是否通过电子邮件卷入了任何 AI 诉讼时,Netwon-Rex 以书面形式回答 VentureBeat 说:“不,我没有参与任何诉讼。

这些团体中是否有任何向 Fair Certified 捐款?Netwon-Rex表示,除了收取的认证费用外,该企业“现阶段没有资金”。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/5412.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

DataStax 使用新的数据 API 可以更轻松地构建生成式 AI RAG 应用程序

下一篇

Databricks 为电信业量身定制 AI 驱动的数据智能平台

微信公众号

微信公众号