在人工智能“红色代码”一年后,谷歌在双子座的强烈反对中红了脸。这是不可避免的吗?

在人工智能“红色代码”一年后,谷歌在双子座的强烈反对中红了脸。这是不可避免的吗?

整个周末,我的社交媒体动态似乎只不过是截图和模因以及头条新闻的链接,这些标题要么取笑,要么对谷歌所谓的“觉醒”双子座人工智能模型进行痛苦的刺伤。

在谷歌表示它通过输出非历史和不准确的双子座图像而“错过了目标”的几天后,X(前身为 Twitter)对双子座输出的截图进行了实地考察,声称“不可能明确地说谁对社会的负面影响更大,埃隆在推特上发布模因或希特勒。值得一提的是,风险投资人马克·安德森(Marc Andreessen)在周末兴高采烈地转发了不准确和令人反感的输出,他声称这些输出是“故意用创作者讨厌的人和想法列表编程的”。

这种引发鞭挞的转变与谷歌在 12 月发布 Gemini 后收到的积极反应——其“谷歌将最终接受 GPT-4”的氛围——尤其引人注目,因为就在一年多前,《纽约时报》报道称,随着 ChatGPT 于 2022 年 11 月的发布引发了生成式 AI 热潮,谷歌宣布了“红色代码”,可能会让这家搜索引擎巨头望尘莫及。

《纽约时报》的文章称,尽管谷歌的研究人员帮助构建了支撑ChatGPT的技术,但长期以来一直担心损害其品牌,而像OpenAI这样的新公司“可能更愿意冒险投诉以换取增长”。但随着ChatGPT的蓬勃发展,根据一份备忘录和录音,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)“参与了一系列会议,以定义谷歌的人工智能战略,他颠覆了公司内部众多小组的工作,以应对ChatGPT构成的威胁。

谷歌对速度的需求与取悦的需求背道而驰

也许这些对立的力量——对速度的需求与取悦用户的需求——使得双子座的反弹不可避免。毕竟,谷歌从一开始就犹豫不决,要发布其最复杂的 LLM,正是因为现在正在发生的事情的潜力:也就是说,对这家科技巨头的不适当 LLM 输出的强烈反对。

当然,这并不是谷歌第一次被 LLM 抨击——还记得 LaMDA 吗?早在 2022 年 6 月,谷歌工程师 Blake Lemoine 就告诉《华盛顿邮报》,他认为谷歌用于生成基于大型语言模型 (LLM) 的聊天机器人的对话式 AI LaMDA 是有知觉的。

Lemoine曾在谷歌的Responsible AI组织工作,直到他被安排带薪休假,并且“被任命为神秘的基督教牧师,并在学习神秘学之前在军队服役”,已经开始测试LaMDA,看看它是否使用了歧视性或仇恨言论。取而代之的是,Lemoine开始“教授”LaMDA超验冥想,向LaMDA询问其首选代词,并泄露了LaMDA的成绩单。

当时,谷歌及其研究实验室DeepMind在LLM领域非常谨慎。DeepMind曾计划在内测版中发布其Sparrow聊天机器人,首席执行官Demis Hassabis警告说,Sparrow“不能避免犯错误,比如幻觉事实和有时给出偏离主题的答案。

像OpenAI这样的小公司没有同样的包袱

毫无疑问,OpenAI 和 Anthropic 等其他初创公司在 AI 领域根本没有像谷歌那样的包袱。在去年《纽约时报》的一篇文章中,一份备忘录称,“谷歌认为这是在不伤害用户或社会的情况下部署其先进人工智能的斗争”,在一次会议的录音中,一位经理承认“小公司对发布这些工具的担忧较少,但表示谷歌必须涉足这场争斗,否则这个行业可能会在没有它的情况下继续前进。

当然,现在,谷歌在生成式人工智能方面全力以赴。但这并没有让它的挑战变得更容易,尤其是当OpenAI没有股东可以取悦,也没有数十亿全球传统技术用户需要满足的时候。

所有 LLM 公司都必须处理幻觉问题——毕竟,ChatGPT 上周刚刚以胡言乱语的答案完全偏离了轨道,不得不回应“问题已经确定并正在补救”。

也许那些荒谬的输出并不像双子座那样敏感和政治上有问题。但似乎人们总是对谷歌抱有更高的期望,因为谷歌是爱恨交织的现任者,要让它的LLM产出取悦所有人。当然,这是不可能的——幻觉不仅是不可避免的(至少目前是这样),而且没有一个LLM驱动的聊天机器人能够输出所有人都同意的社会、文化和政治价值观的完美平衡,因为没有这样的事情。这就是为什么谷歌可能会红脸,但它仍然被困在一块巨大的岩石和一个巨大的坚硬的地方之间。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/5571.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

徘徊者获得600万美元的种子资金,用于构建热门的开源云安全平台

下一篇

Microsoft 在 Nvidia GTC 上展示下一代 AI 和计算

微信公众号

微信公众号