令人难以置信的逼真假图像如何接管互联网

令人难以置信的逼真假图像如何接管互联网

上周,一名31岁的建筑工人服用了一些迷幻药,并认为使用AI图像生成器Midjourney创建教皇弗朗西斯穿着白色Balenciaga风格的羽绒服的逼真图像可能会很有趣。很多看过它的人也觉得它很有趣,所以他们在社交媒体上传播它。他们中的大多数人可能不知道这不是真的。

现在,教皇拥有这种滴水并不是逼真的人工智能生成艺术中最糟糕也不是最危险的部署,其中新图像是根据文本提示创建的。但这是这项技术变得多么好的一个例子,以至于它甚至可以欺骗那些通常更挑剔的人在网上传播错误信息。你甚至可以称之为打击错误和虚假信息战争的转折点,坦率地说,战斗的人们已经输了,仅仅是因为社交媒体 的存在。现在我们必须面对这样一种前景,即即使是正在打这场战争的人也可能无意中帮助传播他们试图打击的虚假信息。然后呢?

这不仅仅是大衣教皇。在过去的两周里,我们看到了几个不祥的人工智能图像故事。我们有特朗普的假逮捕,并试图逃离人工智能生成的法律长臂,该臂被一组渲染不佳的手指所覆盖。Levi's宣布将以多样性的名义用AI生成的人类模型“补充”其人类模型(雇用更多样化的人类模型显然不是一种选择)。微软在其新的人工智能驱动的Bing和Edge浏览器中发布了其Bing Image Creator,以其逼真的图像而闻名的Midjourney发布了最新版本。

最后,有消息称AI图像生成器在画手方面越来越好,这是检测图像是否假的明显迹象之一。即使像Coat Pope看起来一样令人信服,仔细观察他的右手也会揭示它的AI起源。但很快,我们甚至可能没有。Levi's将能够使用AI模型来炫耀它的手套,而我们其他人可能会被扔进一个新世界,在这个世界里,我们完全不知道我们可以信任什么 - 一个比我们目前居住的世界更糟糕的世界。

“我们在社交平台上遇到了文字和错误信息的问题。人们习惯于对文本持怀疑态度,“卡内基梅隆大学数字媒体和营销教授阿里·莱特曼(Ari Lightman)说。“一个图像…在用户心目中增加了一些合法性。视频的图像会产生更多的共鸣。我认为我们的眼罩还没有升起。

在短短几年内,人工智能生成的图像已经走了很长一段路。在一个更无辜的时代(2015年),谷歌发布了“DeepDream”,它使用谷歌的人工神经网络程序 - 即经过训练以模仿人脑神经网络的方式学习的人工智能 - 来识别图像中的模式并从中制作新图像。你会给它一个图像,它会吐出一些类似于它的东西,但编织了一堆新图像,通常是接近眼球、鱼和狗的东西。它并不是要创建图像,而是要直观地展示人工神经网络如何检测模式。结果看起来像是魔眼图和我大学三年级之间的交叉。在实践中不是特别有用,但看起来很酷(或令人毛骨悚然)。

这些程序变得越来越好,训练了数十亿张图像,这些图像通常是在原始创作者不知情或未经许可的情况下从互联网上抓取的。2021 年,OpenAI 发布了 DALL-E,它可以从文本提示制作逼真的图像。这是一个“突破”,麻省理工学院计算机科学与人工智能实验室研究生成模型的博士生Yilun Du说。很快,逼真的人工智能生成的艺术不仅令人震惊地好,而且也非常可用。OpenAI 的 Dall-E 2、稳定 AI 的稳定扩散和 Midjourney 都在 2022 年下半年向公众发布。

预期的道德问题随之而来,从版权问题到种族主义或性别歧视偏见的指控,再到这些节目可能使许多艺术家失业的可能性,以及我们最近看到的情况:令人信服的用于传播虚假信息的深度伪造。虽然图像非常好,但它们仍然不完美。但考虑到这项技术到目前为止的发展速度,可以肯定的是,我们很快就会达到人工智能生成的图像和真实图像几乎无法区分的地步。

以尼克·圣皮埃尔(Nick St. Pierre)的作品为例。圣皮埃尔(St. Pierre)是一位居住在纽约的30岁年轻人,从事产品设计工作,在过去的几个月里,他一直在炫耀他的超现实人工智能艺术作品,并解释了他是如何获得它们的。他可能没有自己构图的艺术技能,但他已经发展了一种将它们从中途移出的技能,他说他使用这种技能是因为他认为这是最好的。圣皮埃尔说,他把一月份的时间用于在中途工作12个小时。现在他可以在大约两个小时内创造出这样的东西。

“当你在互联网上看到一个数字图像并且它是人工智能生成的,它可能很酷,但它不会让你感到震惊,”圣皮埃尔说。“但是当你看到一个如此逼真的图像,你会说,'哇,这是一个美丽的图像',然后你意识到这是人工智能?它让你质疑你的整个现实。

但圣皮埃尔通常不会在他的作品中加入真人(他将布拉德·皮特和约翰·奥利弗渲染为90年代的Gucci女性模特是一个例外,尽管很少有人会看到他们并认为他们实际上是布拉德皮特或约翰奥利弗)。他还认为,社交媒体公司将继续开发更好的工具来检测和缓和有问题的内容,如人工智能生成的深度伪造。

“我不像很多人那样担心它,”他说。“但我确实看到了明显的危险,尤其是在Facebook的世界里。

使用中途 V5 创建的两个 AI 生成的图像。左边是一个博物馆里的中年大胡子男人。右边是一位穿着60年代Gucci连衣裙的女人。
尼克·圣皮埃尔(Nick St. Pierre)的两张人工智能生成的图像。你可以在这里(左图)和这里(右图)找到他用来创建它们的提示。 尼克·圣皮埃尔/中途V5
来自麻省理工学院的杜认为,我们至少还需要几年时间才能使人工智能能够产生图像和视频,这些图像和视频充斥着虚假信息。值得注意的是,尽管圣皮埃尔的图像很逼真,但它们也是数小时训练的最终产物。外套波普是由一个说他从去年十一月开始玩中途的人制作的。所以这些还不是任何人都可以在没有经验的情况下旋转的图像。来自卡内基梅隆大学的莱特曼说,现在的问题是,我们是否为这种可能性做好了准备。

当然,这在很大程度上取决于制作这些程序的公司、托管它们的平台以及创建图像的人,以负责任的方式行事并尽一切可能防止这种情况发生。

有很多迹象表明他们不会。必应创作者不会生成真人的图像,但Midjourney——Coat Pope和逃亡特朗普的来源——显然可以(此后,它禁止了这两张图片的创作者进入该平台,但没有回应置评请求)。对于允许或不允许的内容,他们都有自己的规则。有时,根本没有任何规则。稳定扩散是开源的,所以任何有动机的人都可以在它上面构建自己的东西。

多年来,社交媒体平台一直在努力弄清楚如何处理肆虐的虚假信息运动,或者他们是否以及如何遏制错误信息的传播。他们似乎也没有很好的能力来处理深度伪造。期望全人类做正确的事,而不是试图欺骗人们或将人工智能图像用于恶意目的,这是非常幼稚的。

虽然人工智能运动的许多领导人签署了一封来自一个有效的利他主义相关非营利组织的信,敦促暂停六个月开发更先进的人工智能模型总比没有好,但它在法律上也没有说服力。也没有被业内所有人签署。

这一切都假设大多数人非常关心不被互联网上的深度伪造或其他谎言所欺骗。如果过去几年教会了我们什么,那就是,虽然很多人认为假新闻是一个真正的问题,但他们往往不在乎或不知道如何检查他们消费的东西是否真实 - 特别是当这些信息符合他们的信念时。有些人很乐意接受他们所看到的表面价值,因为他们没有时间或知识来质疑一切。只要它来自可信的来源,他们就会认为这是真的。这就是为什么这些受信任的来源能够审查他们分发的信息的工作很重要的原因。

但也有一些人确实关心并看到了与现实无法区分的深度伪造构成的潜在损害。在人工智能生成的图像变得足够好之前,人们正在竞相提出某种解决方案来解决这个问题。我们还不知道谁会赢,但我们很清楚我们会输什么。

在那之前,如果你在Twitter上看到教皇弗朗西斯穿着Gucci牛仔裤在罗马漫步的照片,你可能想在点击转发之前三思而后行。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/1302.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

如何测试AI模型可以做什么,不应该做什么

下一篇

假 AI 图像如何扩展您的思维

微信公众号

微信公众号