斯坦福大学报告:人工智能在多个方面超越了人类,但成本正在飙升

斯坦福大学报告:人工智能在多个方面超越了人类,但成本正在飙升

根据斯坦福大学以人为本的人工智能研究所的一份新报告,人工智能在 2023 年在技术基准、研究成果和商业投资方面取得了重大进展。然而,该技术仍面临关键的局限性,以及对其风险和社会影响的日益担忧。

2024 年 AI 指数年度报告全面审视了全球人工智能进展,发现人工智能系统在图像分类、视觉推理和英语理解等其他基准上的表现超过了人类。然而,他们继续在更复杂的任务上落后于人类,如高等数学、常识推理和规划。

“人工智能在几个基准上已经超越了人类的表现,”报告说。“然而,它在更复杂的任务上落后了,比如竞赛级数学、视觉常识推理和规划。

人工智能研究激增和成本上升

该报告详细介绍了 2023 年新人工智能研发的爆炸式增长,行业参与者将引领这一潮流。去年,私营公司生产了51个著名的机器学习(ML)模型,而学术界只有15个。工业界和学术界之间的合作产生了另外 21 个备受瞩目的模型。

训练尖端人工智能系统的成本飙升,OpenAI 的 GPT-4 语言模型使用的价值估计为 7800 万美元。根据报告中的估计,谷歌更大的Gemini Ultra模型的训练成本高达1.91亿美元。

“前沿模型变得更加昂贵,”作者解释道。“根据AI Index的估计,最先进的AI模型的训练成本已经达到了前所未有的水平。

人工智能生产中的地理主导地位

美国在生产领先的人工智能模型方面领先于其他国家,2023 年有 61 个著名的系统来自美国机构。中国和欧盟分别以15个和21个紧随其后。

投资趋势描绘了一幅喜忧参半的图景。虽然私人人工智能的整体投资连续第二年下降,但“生成式人工智能”(可以生成文本、图像和其他媒体的系统)的资金几乎翻了八倍,达到252亿美元。OpenAI、Anthropic 和 Stability AI 等公司完成了大量融资。

“生成式人工智能投资猛增,”报告指出。“尽管去年整体人工智能私人投资有所下降,但生成式人工智能的资金激增,比 2022 年增长了近八倍,达到 252 亿美元。”

需要标准化的人工智能测试

随着人工智能的快速发展,报告发现,在责任、安全和安保方面缺乏标准化的系统测试,这令人不安。OpenAI 和 Google 等领先的开发人员主要在不同的基准上评估他们的模型,这使得比较变得困难。

“严重缺乏对[大型语言模型]LLM责任的稳健和标准化的评估,”根据AI Index分析。“这种做法使系统地比较顶级人工智能模型的风险和局限性的努力变得复杂。

新出现的风险和公众关注

作者指出了新出现的风险,包括“容易产生但难以检测”的政治深度伪造的传播。他们还强调了新的研究,揭示了如何操纵语言模型以产生有害输出的复杂漏洞。

报告中的舆论数据显示,人们对人工智能的焦虑与日俱增。在全球范围内,认为人工智能将在未来3-5年内“极大地”影响他们生活的人比例从60%上升到66%。超过一半的人现在对人工智能产品和服务表示紧张。

报告指出:“全球各地的人们都更加意识到人工智能的潜在影响,也更加紧张。“在美国,皮尤数据显示,52%的美国人表示对人工智能感到担忧多于兴奋,高于2022年的37%。”

随着人工智能变得越来越强大和普遍,人工智能指数旨在客观地了解技术状况,为政策制定者、商业领袖和公众提供信息。随着人工智能处于转折点,严谨的数据对于驾驭未来的机遇和挑战至关重要。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/5926.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

Overture Maps Foundation 发布 beta 数据集,为现代地图构建提供动力

下一篇

Zyphra 发布 Zamba,这是一种 SSM 混合基础模型,可将 AI 引入更多设备

微信公众号

微信公众号