ChatGPT的嗡嗡声以及为什么它会比你想象的更早结束

ChatGPT的嗡嗡声以及为什么它会比你想象的更早结束

围绕人工智能的普遍嗡嗡声不会很快消失。它几乎出现在所有行业,从客户服务到医药。然而,对这些工具的技术理解仍然是一个复杂的对话。

大型语言模型(LLM)无法理解和模拟类似人类的对话。他们使用大量数据进行训练,以根据特定输入给出特定的输出。但他们缺乏理解这些词背后的真正含义的能力。LLM产生的任何响应都将缺乏对上下文的基本理解。

虽然法学硕士可以产生公式化和结构化的散文和诗歌,但这些作品非常乏味和沉闷。OpenAI的ChatGPT是一个LLM,在训练大量数据后生成新文本。虽然教师们担心 ChatGPT 的普及将是带回家的作业和考试的终结,但仔细研究 ChatGPT 的算法会发现它无法产生创造性和有趣的类人散文。这种无能提出了一个基本问题,即技术在解决业务问题中的有用性。

混为一谈的恐惧?

据统计,聊天机器人市场预计将以 23.5% 的复合年增长率增长,到 10 年将达到 6 亿。

ChatGPT是流行的生成AI,而不是第一个基于AI的聊天机器人。它正在一个充满不同语言机器人的市场中竞争。然而,最近的免费版本的 ChatGPT 在短短一周内获得了 1 万用户后获得了更大的动力。ChatGPT 依赖于大量处理大量数据的人进行数据分类、标记、标记和注释,以增强其功能。有一些确定性的猜测认为ChatGPT可以取代谷歌的搜索引擎。

但是,ChatGPT 的答案中出现不准确的可能性迫使用户使用外部来源进行验证。这种验证可能更复杂,因为 ChatGPT 提供的具体答案没有任何来源链接(与谷歌不同)或说明其置信度。因此,围绕取代谷歌的担忧和猜测可能有点混为一谈。

ChatGPT 的缺点

如上所述,ChatGPT 可以写散文和诗歌、回答复杂的问题和进行对话,但某些缺点不容忽视。其中一些包括以下内容:

错误答案

ChatGPT 是一个广泛的 LLM,通过持续培训提高其响应的准确性。但是,由于该LLM足够新,因此尚未经过足够的培训。因此,它可能会给出不准确的答案。

因此,Stackflow禁止了ChatGPT的答案,称ChatGPT的答案对寻求正确答案的社区和用户有害。虽然 ChatGPT 生成不准确答案的比率很高,但聊天机器人可以自信地回答所有问题,以至于感觉这些答案不仅正确而且是最好的。

训练数据的限制

与所有其他AI模型一样,ChatGPT的训练数据也存在局限性。训练数据中的约束、限制和偏差可能会产生不准确的结果。它可以不成比例地影响少数群体,并使陈规定型观念永久化。为了减少这种偏见,必须提高数据透明度。

可持续性

ChatGPT是一个免费产品,但运行这项技术非常昂贵。运行成本估计约为每天 100,000 美元或每月 3 万美元。从长远来看,这引发了对其可持续性的质疑。Open AI与微软的合作可能会降低一些成本。但这种操作在任何意义上都不便宜。

人工智能的进步:前方的坎坷之路

虽然许多技术决定论者称ChatGPT为谷歌的“红色代码”,但现实远非如此。测试表明,ChatGPT会产生“无意识的不理解”,即无意识的,不连贯的答案,表明系统不理解它在说什么。虽然它护卫攻击性反应(其他生成式AI机器人的主要问题),但它使用关键字这样做,并且不了解它所防范的内容。

ChatGPT 的另一个更重要的问题是幻觉——它将相关的东西拼凑在一起,不能正确回答问题。基本上,它解释并组合了来自训练数据的不同信息。这些信息之间可能存在一些随机或模糊的关系。这就是为什么答案看似合理或可信,但可能与现实相去甚远。

与将关键字与意图联系起来的传统聊天机器人不同,像 ChatGPT 这样的 LLM 是文本预测器。这意味着他们从根本上了解文本、单词和句子之间的关系。他们使用这些关系来预测以下字符串。

虽然谷歌搜索的成本不到一分钱,但ChatGPT相当昂贵(在数据收集,手动数据活动和大规模计算之间)。同样,编译其响应需要一段时间,而Google搜索是即时的。这些经济和速度问题使ChatGPT落后于谷歌。

上面关于LLM和ChatGPT的讨论表明,围绕ChatGPT的炒作可能被夸大了。当人们开始想象各种可能性时,很多兴奋都会被激发起来。然而,在短时间内,那些在特定业务场景中实际测试这些工具参数的人表明,我们离天空中伟大的人工智能奇点还有一段路要走。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/2258.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

大型语言模型(LLM)研究的下一步是什么?这是 ML 长矛下发生的事情

下一篇

人工智能如何缓解这些数据管理困境

微信公众号

微信公众号