谷歌、Microsoft、OpenAI 在慕尼黑安全会议前做出 AI 承诺

谷歌、Microsoft、OpenAI 在慕尼黑安全会议前做出 AI 承诺

在所谓的网络安全“防御者困境”中,好人总是在奔跑、奔跑、奔跑并时刻保持警惕——而另一方面,攻击者只需要一个小小的机会就可以突破并造成一些真正的破坏。

但是,谷歌表示,防御者应该采用先进的人工智能工具来帮助打破这种令人筋疲力尽的循环。

为了支持这一点,这家科技巨头今天发布了一项新的“人工智能网络防御计划”,并在明天(2月16日)开幕的慕尼黑安全会议(MSC)之前做出了几项与人工智能相关的承诺。

在宣布这一消息的前一天,Microsoft 和 OpenAI 发表了关于对抗性使用 ChatGPT 的研究,并做出了支持“安全和负责任”人工智能使用的承诺。

随着来自世界各地的政府领导人齐聚一堂,在MSC上讨论国际安全政策,很明显,这些重量级的人工智能公司正在寻求展示他们在网络安全方面的积极性。

“人工智能革命已经在进行中,”谷歌今天在一篇博客文章中说。“我们是......我们对人工智能解决代际安全挑战的潜力感到兴奋,同时使我们更接近我们应得的安全、可靠和值得信赖的数字世界。

谷歌投资于“人工智能就绪”的基础设施、新工具和研究

在慕尼黑,450多名高级决策者、思想和商业领袖将齐聚一堂,讨论技术、跨大西洋安全和全球秩序等议题。

“技术日益渗透到国家、社会和个人追求自身利益的方方面面,”MSC在其网站上表示,并补充说,会议旨在推进关于技术监管、治理和使用的辩论,“以促进包容性安全和全球合作”。

人工智能无疑是许多全球领导者和监管机构的首要考虑因素,因为他们不仅要了解这项技术,还要抢在恶意行为者使用它之前。

随着事件的展开,谷歌承诺投资“人工智能就绪的基础设施”,为防御者发布新工具,并启动新的研究和人工智能安全培训。

今天,该公司宣布在谷歌创业成长学院的网络安全人工智能计划下,由来自美国、英国和欧盟的 17 家初创公司组成的新“网络安全人工智能”队列。

该公司表示:“这将有助于通过国际化战略、人工智能工具和使用它们的技能来加强跨大西洋网络安全生态系统。

Google 还将:

  • 扩大其 1500 万美元的 Google.org 网络安全研讨会计划,以覆盖整个欧洲,并帮助在服务不足的社区培训网络安全专业人员。
  • 开源 Magika,一种新的人工智能工具,旨在通过文件类型识别来帮助防御者,这对于检测恶意软件至关重要。谷歌表示,该平台优于传统的文件识别方法,在VBA、JavaScript和Powershell等通常难以识别的内容上提供了30%的准确率提升和高达95%的精度提升。
  • 提供 200 万美元的研究资助,以支持芝加哥大学、卡内基梅隆大学和斯坦福大学等基于人工智能的研究计划。目标是加强代码验证,提高对人工智能在网络攻击和防御中的作用的理解,并开发更具抗威胁性的大型语言模型(LLM)。

此外,谷歌还指出,其去年6月推出的安全人工智能框架(Secure AI Framework)旨在帮助世界各地的组织在保护人工智能的最佳实践方面进行合作。

“我们认为,人工智能安全技术与其他技术一样,需要通过设计和默认来确保安全,”该公司写道。

最终,谷歌强调,世界需要有针对性的投资、行业与政府的伙伴关系和“有效的监管方法”,以帮助最大限度地提高人工智能的价值,同时限制攻击者的使用。

“今天做出的人工智能治理选择可能会以意想不到的方式改变网络空间的格局,”该公司写道。“我们的社会需要对人工智能的使用和采用采取平衡的监管方法,以避免攻击者可以创新但防御者不能的未来。

Microsoft、OpenAI打击恶意使用人工智能

与此同时,Microsoft和OpenAI在本周的联合声明中指出,攻击者越来越多地将人工智能视为“另一种生产力工具”。

值得注意的是,OpenAI表示,它已经终止了与来自中国、伊朗、朝鲜和俄罗斯的五个国家附属威胁行为者有关的账户。这些团体使用 ChatGPT 来:

  • 调试代码并生成脚本
  • 创建可能用于网络钓鱼活动的内容
  • 翻译技术论文
  • 检索有关漏洞和多个情报机构的公开信息
  • 研究恶意软件可能逃避检测的常见方式
  • 对卫星通信协议和雷达成像技术进行开源研究

然而,该公司很快指出,“我们的研究结果表明,我们的模型只能为恶意网络安全任务提供有限的增量功能。

两家公司已承诺确保“安全和负责任地使用”包括ChatGPT在内的技术。

对于 Microsoft,这些原则包括:

  • 识别并针对恶意威胁参与者的使用采取行动,例如禁用帐户或终止服务。
  • 通知其他 AI 服务提供商并共享相关数据。
  • 与其他利益相关者合作,研究威胁行为者对 AI 的使用。
  • 告知公众在其系统中检测到的人工智能使用情况以及针对其采取的措施。

同样,OpenAI 承诺:

  • 监控和破坏与国家有关联的恶意行为者。这包括确定恶意行为者如何与其平台交互并评估更广泛的意图。
  • 与“人工智能生态系统”合作
  • 向公众公开透明,说明与国家有关联的恶意行为者使用人工智能的性质和程度,以及针对他们采取的措施。

犯罪分子和国家支持的行为者都在扩大攻击

谷歌的威胁情报团队在今天发布的一份详细报告中表示,它跟踪了数千个恶意行为者和恶意软件家族,并发现:

  • 攻击者正在继续使操作和程序专业化
  • 进攻性网络能力现在是地缘政治的重中之重
  • 威胁参与者组织的策略现在经常规避标准控制

研究人员还“高度自信地评估”,“四大”中国、俄罗斯、朝鲜和伊朗将继续在各个地区和行业构成重大风险。例如,中国一直在大力投资进攻性和防御性人工智能,并从事个人数据和知识产权盗窃,以与美国竞争。

谷歌指出,攻击者通过开发更复杂的网络钓鱼、短信和其他诱饵工具、假新闻和深度伪造,将人工智能用于社会工程和信息运营。

“随着人工智能技术的发展,我们相信它有可能显着增强恶意操作,”研究人员写道。“政府和行业必须通过强大的威胁情报计划和强有力的合作来扩大规模以应对这些威胁。”

推翻“捍卫者困境”

另一方面,谷歌指出,人工智能支持防御者在漏洞检测和修复、事件响应和恶意软件分析方面的工作。

例如,人工智能可以快速汇总威胁情报和报告,汇总案例调查并解释可疑的脚本行为。同样,它可以对恶意软件类别进行分类并确定威胁的优先级,识别代码中的安全漏洞,运行攻击路径模拟,监控控制性能并评估早期故障风险。

此外,谷歌表示,人工智能可以帮助非技术用户从自然语言生成查询;制定安全编排、自动化和响应手册;以及创建身份和访问管理 (IAM) 规则和策略。

例如,谷歌的检测和响应团队正在使用生成人工智能来创建事件摘要,最终节省了 50% 以上的时间,并在事件分析输出中产生了更高质量的结果。

该公司还通过新的基于神经的多语言文本处理模型 RETVec 将其垃圾邮件检测率提高了约 40%。而且,其 Gemini LLM 正在修复清理工具发现的 15% 的错误,并在 120 多个项目中提供高达 30% 的代码覆盖率提高,从而导致新的漏洞检测。

最后,谷歌研究人员断言,“我们相信人工智能提供了最好的机会来颠覆防御者的困境,并倾斜网络空间的天平,使防御者比攻击者具有决定性的优势。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/5482.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

LangChain获得2500万美元融资,推出支持整个LLM应用程序生命周期的平台

下一篇

你确定要与 ChatGPT 分享吗?Metomic 如何帮助阻止数据泄露

微信公众号

微信公众号