Microsoft Security Copilot 使用 GPT-4 帮助安全团队以 AI 速度行动

Microsoft Security Copilot 使用 GPT-4 帮助安全团队以 AI 速度行动

网络安全是一个速度杀人的游戏。如果防御者想要跟上复杂的现代威胁参与者,他们需要快速采取行动,这在尝试保护在本地和云环境之间移动的数据时很困难。但是,微软认为这是一个可以通过转向 GPT-4 来解决的挑战。

今天,微软宣布发布Microsoft Security Copilot,这是一个基于GPT-4及其专有安全模型的生成AI解决方案。该工具可以处理来自Microsoft Sentinel等安全工具的多达65万亿个威胁信号,并创建潜在恶意活动(例如帐户泄露)的自然文本摘要,以便人类用户可以跟进。

“Security Copilot可以通过机器速度和规模来增强安全专业人员,因此人类的聪明才智被部署在最重要的地方,”微软公司安全,合规,身份和管理副总裁Vasu Jakkal在宣布新工具的博客文章中说。

在高层次上,这个最新版本强调了这样一个事实,即生成式人工智能有一个有价值的防御用例;不仅在整个组织的网络中收集不同的威胁信号并将其转换为书面摘要,而且还为用户提供分步事件补救说明。

使用 GPT-4 使安全团队以 AI 的速度行动

自 2022年发布 ChatGPT-4 以来,生成式 AI 的防御用例在企业安全市场中一直在快速增长。

例如,开源安全提供商Armo发布了一个ChatGPT集成,旨在用自然语言为Kubernetes集群构建自定义安全控制。

同样,云安全供应商Orca Security发布了自己的ChatGPT扩展,该扩展可以处理解决方案生成的安全警报,并为用户提供分步补救说明以管理数据泄露。

新版本的Microsoft Security Copilot表明,生成式AI在企业安全中的采用正在加速,大型供应商希望帮助组织实现自动化SOC的愿景,这对于跟上当前网络威胁的水平至关重要。

“攻击的数量不断增加,”微软副总裁AI安全架构师Chang Kawaguchi说。“防御者分散在许多工具和许多技术中。我们认为Security Copilot有机会改变他们的工作方式,并使它们更有效。

情境化信号,分析师支持

由于平均漏洞生命周期持续 287 天,安全团队花费 212 天来检测漏洞,75 天来控制它们,很明显,手动、以人为本的威胁调查方法既缓慢又无效。

Security Pilot 的答案是,不仅要将威胁信号置于上下文中,还要通过 Microsoft 或组织本身提供的提示书籍为分析师提供支持,以提供有关如何快速修正安全事件的指导。

例如,如果 Security Pilot 在端点上检测到恶意软件,它可以向用户突出显示恶意软件影响分析提示书,该手册将详细说明违规的规模并提供有关如何控制事件的指导。

网络安全市场中的生成式人工智能

众所周知,生成式全球市场正处于增长状态,OpenAI、谷歌、英伟达和微软都在争夺市场的主导地位,研究人员估计,到 126 年,该市场的价值将达到 5 亿美元。

然而,在市场增长的这个阶段,生成式人工智能在网络安全中的作用尚未明确定义。

虽然像 Orca Security 这样目前估值为 1 亿美元的提供商已经展示了 GPT-8 在处理云安全警报和生成补救指导以减少安全事件的平均解决时间 (MTTR) 方面的潜在用例,但自主网络安全副驾驶的概念仍有待定义。

微软决定全力以赴使用自己的生成式人工智能安全解决方案,不仅有可能加速在防御环境中采用 GPT-4 等工具,而且可以定义其他组织可以在自己的环境中查看和应用的潜在防御用例。

“除了微软模型本身之外,使用的不同之处在于技能和与我们的客户使用的所有其他安全产品的集成;老实说,我们认为在开始学习过程并与客户合作以改善和授权他们的团队方面存在巨大的先发优势,“Kawaguchi说。

话虽如此,虽然生成式AI的防御用例似乎很有希望,但在明确像GPT-4这样的工具对威胁形势是净积极还是消极之前,还有很长的路要走。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/2079.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

GPT-4 将 AI 安全风险提升到更高的档次

下一篇

Hugging Face揭示了英特尔硬件的生成式人工智能性能提升

微信公众号

微信公众号