新的深度伪造威胁迫在眉睫

新的深度伪造威胁迫在眉睫

在过去五年中,利用人工智能(AI)和机器学习(ML)对人和事件的高保真,合成,虚构的描述已成为错误信息的常见工具。但根据Microsoft首席科学官埃里克·霍维茨(Eric Horvitz)的说法,新的深度伪造威胁正潜伏在地平线上。

Horvitz的一篇新研究论文说,互动和合成深度伪造是两类不断增长的威胁。在Twitter帖子中,MosaicML研究科学家Davis Bhloch将交互式深度伪造描述为“与真人交谈的幻觉。想象一下,一个骗子打电话给你的祖母,她看起来和听起来都和你一模一样。他继续说,合成深度伪造更进一步,一个坏演员创造了许多深度伪造来编制“合成历史”。

“想想编造从未发生过的恐怖袭击,编造一个虚构的丑闻,或者把一个自私自利的阴谋论的”证据“放在一起。这样的合成历史可以补充现实世界的行动(例如,放火烧建筑物),“布拉洛赫在推特上说。

生成式 AI 正处于拐点

在论文中,Horvitz表示,判别和生成AI方法的不断增强的能力正在达到拐点。“这些进步提供了前所未有的工具,国家和非国家行为者可以使用这些工具来创建和分发有说服力的虚假信息,”他写道,并补充说深度伪造将变得更加难以与现实区分开来。

他解释说,挑战来自生成对抗网络(GAN)方法,这是一种“迭代技术,用于生成合成内容的机器学习和推理与试图区分生成的虚构与事实的系统对抗。他继续说,随着时间的推移,发电机学会了欺骗探测器。“这个过程是deepfakes的基础,模式识别技术和人类都无法可靠地识别deepfakes,”他写道。

早在五月份,霍维茨就在美国参议院军事委员会网络安全小组委员会作证时强调,随着网络安全攻击的日益复杂,包括通过使用人工智能驱动的合成媒体和深度伪造,组织肯定会面临新的挑战。

迄今为止,他在新论文中写道,深度伪造已被创建并作为一次性的独立创作共享。然而,现在,“我们可以期待看到新形式的有说服力的深度伪造的兴起,这些形式超越了固定的、单一的制作,”他说。

防御深度伪造

霍维茨列举了政府、组织、研究人员和企业可以准备和防御互动和合成深度伪造的预期增长的各种方式。

越来越复杂的深度伪造的兴起将“提高新闻和报道的期望和要求”,以及培养媒体素养和提高对这些新趋势的认识的必要性。

此外,他补充说,可能需要新的真实性协议来确认身份 - 甚至是新的多因素识别实践,以允许进入在线会议。可能还需要有新的标准来证明内容来源,包括新的水印和指纹方法;新法规和自我监管;红队的努力和持续监控。

深度伪造的警惕至关重要

“重要的是要警惕”互动和作曲的深度伪造,霍维茨在周末的一条推文中说。

其他专家也在推特上分享了这篇论文并进行了权衡。“公众对人工智能风险的认识对于领先于可预见的危害至关重要,”Hugging Face的研究员兼首席伦理科学家Margaret Mitchell写道。“我经常想到诈骗和错误信息。”

霍维茨在他的结论中扩展了:“随着我们在技术可能性的前沿取得进展,我们必须继续设想我们创造的技术的潜在滥用,并努力开发威胁模型、控制和保障措施——并跨多个部门参与日益增加的问题、可接受的用途、最佳实践、缓解和法规。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/3535.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

黄仁勋问答:为什么摩尔定律已死,但元宇宙仍会发生

下一篇

企业如何充分发挥其数据在 AI 方面的潜力

微信公众号

微信公众号