盘点2024年生成式AI带来的五大新型安全威胁

有网络安全专家表示,虽然企业组织并不总是能够准确指出生成式AI在网络攻击中发挥的作用,但可以假设它在网络钓鱼和社会工程攻击中已经变得无处不在了。随着OpenAI ChatGPT等工具的出现以及对攻击者用户的突显,“你可以假设复杂性和准确性都有所提高,以及网络钓鱼和社会工程中语言学发生的变化,”托管检测和响应提供商Blackpoint Cyber安全副总裁MacKenzie Brown这样表示。

但有专家称,尽管生成式AI应用无疑是目前对攻击者“最有用处的”,但仍有许多新兴威胁利用这项技术来加快攻击的速度和复杂性。

有专家表示,对于大多数组织来说,最重要的是,即使生成式AI在防御方面取得了进展,但威胁环境仍将继续受到AI攻击的影响。

归根结底,对于那些拥有成熟安全计划的组织来说,生成式AI的到来“只是加速和改进了他们多年来已知的攻击媒介”,总部位于丹佛的Optiv公司大数据和分析业务总监Randy Lariar这样表示。

然而“我认为,更大的问题可能是企业在安全领域落后了,或者没有将安全与业务使命完全结合起来,”Lariar说。“如果只是完成了一个选项或者满足了保险要求,那么就是可能存在一些差距的。”

下面就让我们来看看2024年生成式AI带来的五种新型安全威胁。

加速攻击

安全专家表示,生成式AI带来的最大威胁并不是新的策略或技术,而是让网络犯罪分子和黑客使用的现有方法进一步加速了。网络安全巨头Sophos的全球首席技术官Chester Wisniewski表示,生成式AI让威胁行为者“可以做他们一直在做的事情,但速度要快得多了”。

“以前一天的窗口期,现在可能只需要四小时。以前四小时的窗口期,现在可能只需要十分钟,”Wisniewski说。他表示,过去攻击者攻击10万个受害者所需的工作量,现在可能足以在同样的时间内攻击1000万个受害者。

例如,根据Sophos X-Ops的研究,攻击者在实施所谓的“杀猪”骗局时,已经能够使用新的AI功能来扩大范围,以前“必须向每个受害者发送短信,然后找出哪些人会回复并回复他们。这是一个速度慢得多、规模小得多的过程,”Wisniewski。但是现在,“我们有证据表明ChatGPT正被用于自动化这些对话的初始阶段。”

最终,“通过自动化进行的这些 [攻击] 的规模和范围使更多的人面临比我们在 AI 出现之前看到的更多此类威胁,”Wisniewski 说。“我的粗略计算表明,我们从一个人每天可以尝试欺骗 1,000 人,到一个人通过自动化每天可以欺骗 100,000 人。”

恶意软件更容易躲避检测

据专家称,AI生成的代码大体上是现有恶意软件的衍生品,通常会让安全工具很容易检测到。这意味着生成式AI工具在生成恶意软件方面的用处是有限的,Wisniewski说。

与此同时,根据Blackpoint Cyber公司的Brown称,生成式AI可以更有效地改进现有恶意软件以绕过检测。她说:“我们发现威胁行为者现在使用AI来帮助修改现有的恶意软件,而这些恶意软件不一定附带签名。如果他们可以修改签名的显示方式,就可以通过这种方式逃避[防病毒软件]。他们正在利用生成式AI来操控恶意软件,重新打造新的恶意软件。”

攻击行为更加个性化

专家表示,威胁行为者可以利用生成式AI来改善针对性攻击的个性化,范围十分广泛。Brown表示,生成式AI在“研究和侦察方面发挥着巨大作用,就像我们使用AI来提高效率一样,威胁行为者也使用AI来提高效率。”

换句话说,攻击者能够通过互联网上的个人研究减少他们需要收集的大部分信息,“他们能够以更有效的方式做到这一点。”

Brown表示:“现在他们可以根据实际组织、行业本身来定制攻击。他们正在利用能够收集到的一切信息,从而减少研究和侦察的工作量,让初始访问变得更快。他们知道要攻击哪些外部系统,知道要攻击哪些目标,知道什么能让他们通过社交工程进入,或者创建一些脚本和自动化,这样他们一旦进入环境就能更快地传播出去。”

音频伪造进一步升级

根据身份验证供应商Regula最近的一份报告,受访企业中有近半数表示,在过去两年中,他们成为音频伪造攻击的目标,这表明,语音克隆攻击已经变得如此普遍。毫无疑问,语音克隆技术已经发展到既易于使用又能够制作令人信服的假音频的地步,Wisniewski表示。

相比之下,“一年前的[克隆技术],如果不下功夫就不会足够好,”Wisniewski说。然而,最近,他能够在五分钟内制作出令人信服的伪造音频。

“既然现在都实现了,犯罪分子就更容易获得它了,”Wisniewski说。

Palo Alto Networks 42号部门威胁研究技术总监Kyle Wilhoit表示,虽然这项技术还不足以实时生成深度伪造音频,但会继续改进。“我想说,将来这种可能性会更大,”Wilhoit说。

更容易利用漏洞

Wisniewski还认为,生成式AI可以在帮助攻击者开发新漏洞方面发挥作用。他指出,虽然现有工具已经可以自动生成软件中可能被利用的漏洞,但人类仍然必须确定是否真的有可能被利用。

然而,现在生成式AI工具可以通过帮助分析潜在漏洞的变体来加快处理速度,Wisniewski说:“AI可能会说,‘这是一个很有潜力的漏洞’。”

最终,“这将是我会关注的一个领域——是否存在一种服务经济体,主要针对高端行为者的,他们可以付给某人5万美金,让他们完成25种不同的攻击行为?”Wisniewski说。