人工智能生成智能面临回归文化殖民主义的风险

人工智能生成智能面临回归文化殖民主义的风险

人工智能聊天机器人的普及将我们带到了一个关键时刻,这将对我们的集体世界观产生持久的影响。ChatGPT 现在是历史上增长最快的应用程序,拥有超过 100 亿用户,每天有超过 10 万次查询。财富 500 强公司正在采用它而不考虑未来的影响,从而产生飞轮效应,通过采用该技术的公司扩大其影响力。

生成性人工智能可能会产生意想不到的后果,其中最重要的后果之一是它赋予创造它的文化的力量。具有讽刺意味的是,ChatGPT 的空前普及使 OpenAI 成为一家营利性闭源公司,对 ChatGPT 的控制更加严格,并且其学习方法的细节不透明,最近发布的 ChatGPT-4 证明了这一点。随着这项技术的扩散,它以惊人的信心传播错误信息的能力也在扩散。如果不加以控制,其隐性偏见可能会破坏数十年来在多元化和多元文化社会方面取得的进展。

警告灯闪烁;生产这项技术的人必须承认其对社会的潜在深远影响并承担责任。

ChatGPT 是有偏见的——问吧
人工智能不是一个中立的实体。例如,ChatGPT承认其回应本质上是有偏见的,并且充满了隐含的偏见。这主要是因为用于开发它的数据集充满了人类的偏见和偏见。

ChatGPT是通过人类设计的算法开发的,旨在从数字世界中学习,这往往反映了更加互联和数字化的社会。这种表现将不可避免地导致数字鸿沟的进一步恶化。此外,Open AI 员工必须手动修补算法,以防止 ChatGPT 产生不适当的响应。算法创建者的判断引导它以一种让他们感到舒适和自信的方式行事。因此,该算法对政治问题、社会和技术状况的看法以及对活动的偏好(例如富裕的追求,如在夏威夷度假或加利福尼亚的国家公园,作为假设的例子)不是从普遍的角度创建的,而是从特定的角度创建的。简而言之,ChatGPT 的价值体系反映了开发它的人的价值体系。

为什么会有问题?因为它将一套特定的原则强加给全球使用该技术的个人。人们的生活、经济、文化和世界理解大相径庭,但产出却没有反映出来。ChatGPT 从来自不同作者的大量语言数据中汇总信息,以创建问题的答案。每当汇总和统计学习大量数据时,它往往会最大限度地减少边缘化群体的代表性。我们冒着抹去全球挂毯细节的风险,将其统一在一个单一的算法愿景下。

Songyee Yoon博士,NCSoft总裁兼首席战略官。
推动这一结果的不仅仅是工具的功能,还有界面。现代数字时代使我们习惯于接受在线互动的安全性,使我们相信为我们日常生活提供动力的服务具有良性意图。您最后一次阅读并理解要求您签署的 EULA 中的内容是什么时候?或者谁对您收集信息的维基百科页面进行了编辑?搜索引擎、社交媒体平台和现在的生成式人工智能应用程序的有吸引力的界面建立了对用户的信任感,这抑制了我们对服务的商业或道德意图的好奇心。

没有人会预料到ChatGPT或其竞争对手会如此迅速地流行起来。需要有更多的时间来建立对广泛采用其固有风险的认识。随着最近人工智能道德和安全领域的技术裁员(如微软的裁员),以及OpenAI开发ChatGPT的透明度降低,没有明确的护栏询问我们ChatGPT如何影响世界。公众的广泛采用,加上缺乏公司透明度和自我监管,构成了一种威胁,即全球人口将在无意中催化一种凌驾于人类文化无数表达之上的单一世界观。

ChatGPT 和数字殖民主义
长期以来,文化同化和宣传一直被用作将某些价值观强加给民众的工具。殖民地国家经常被迫摒弃其文化遗产,并采用其宗主国的规则和标准。

凭借 ChatGPT 的全球影响力,风险在于其产品将被视为事实和要遵循的标准,默契地传播其设计师的价值观和世界观。这在人类历史上并不是一个新现象。例如,当英国人将西医引入印度时,他们劝阻并废除了印度传统医学的旧做法。在北美殖民化期间,许多土著居民被迫放弃他们的母语,在教育和商业中采用基督教,这反过来又使社区和人口群体同质化。

ChatGPT 具有更大的能力,可以通过在全球范围内大规模访问的便利性来消除非西方观点的文化认同。当另一个大陆的学生使用 ChatGPT 提出问题时,返回的答案将立即筛选从聚合的单一角度创建的算法。该工具没有细微差别来区分用户的个人体验、核心家庭价值观或不同的世界观。然而,这些结果所导致的前提将产生深远的文化影响。没有同样西方教养的用户可能会无意中将自己置于被洗脑的位置。

然而,创造无数的回音室并将个人隔离在其中并不是解决方案。与其随意地以最快的速度推广技术,我们需要让世界及其受众做好准备,批判性地使用和欣赏它。硅谷的座右铭“快速行动,打破常规”不应该适用于这里。世界文化太脆弱和珍贵,不能在这个座右铭下被打破,潜在的损害将是不可逆转的。我们必须认识到这些风险,谨慎行事,并努力确保人工智能以负责任的方式发展,以创造一个更加公平和多样化的社会。这些工具的武器化可能是无意的,但我们对其问题的补救不容忽视。

社会对未来的道路毫无准备
我们几代人都在为拥抱多样性和尊重彼此的文化遗产而奋斗。我们庆祝美德是通过多种形式产生的。然而,像 ChatGPT 这样的人工智能技术可能会无意中逆转我们通过一个主导镜头提供视角所取得的一切成就。因此,生产这项技术的人必须承认并对社会的意外但可能造成深刻有害的影响承担责任。他们会吗?他们是否有足够的个人动机和社会动机这样做?这是一个大问题和关切。

开发聊天机器人和其他生成人工智能产品的公司以及监管这些技术的政府必须在开发这些类型的工具时采用道德和透明度的社区标准,以便用户能够充分理解其权力的含义。我们都努力创造的现代世界的多元化集体岌岌可危。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/1773.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

Hugging Face推出ChatGPT的开源版本,以挑战闭源模型的主导地位

下一篇

Yelp 利用 AI 和 LLM 来增强搜索、审查和招聘体验

微信公众号

微信公众号