大语言模型在安全IC设计领域展现潜力

全文3726字,阅读约需11分钟,帮我划重点

划重点

01大型语言模型在安全IC设计领域展现潜力,有望减少设计安全芯片和系统的时间、精力和成本。

02然而,这些模型也可能为更复杂的攻击打开大门,因此在使用前需克服技术挑战。

03专家认为,大型语言模型在EDA设计领域的应用将对工程师起到重要的教育作用。

04为此,安全专家提醒,设计人员需对大型语言模型保持警惕,防止其被用于恶意目的。

05另一方面,训练大型语言模型可能带来难以察觉的漏洞,因此需要在推广过程中注意安全问题。

以上内容由腾讯混元大模型生成,仅供参考

图片

本文由半导体产业纵横(ID:ICVIEWS)编译自semiengineering

大型语言模型能够识别和修复漏洞,但也可能带来新的攻击途径。

图片

将大型语言模型(LLM)引入电子设计自动化(EDA)流程,可以显著减少设计安全芯片和系统的时间、精力和成本,但也可能为更复杂的攻击打开大门。

在芯片和系统设计中使用LLM还为时尚早。这项技术刚刚开始应用,在充分发挥LLM的潜力之前,还有许多技术挑战必须克服。尽管如此,它们似乎仍将在未来的芯片和系统安全中发挥重要作用。

“我们正在将许多工具中融入人工智能技术,”新思科技科学家迈克·波尔扎表示,“LLM是这些技术的一部分,但并非全部。许多现有的优化工具结合了机器学习,并在其周围部署了推理引擎。这对我们来说是一套非常有效的工具。LLM正作为一种有趣的工具崭露头角。它们大多出现在设计领域,并展现出捕获局部知识以及在某些情况下捕获全局知识的能力。”

LLM的兴起与日益增长的系统安全(包括硬件和软件的安全)需求不谋而合。过去,由于软件更容易受到远程攻击,因此大部分精力都放在了软件上。但随着硬件和软件日益融合,以及对侧信道攻击的了解日益加深,这种观念正在改变。得克萨斯农工大学安全与可信硬件实验室的博士生拉胡尔·坎德认为,LLM有助于弥合硬件和软件安全之间的知识鸿沟。

“很多半导体工程师都没有硬件安全意识。他们主要关注功能验证,确保芯片按预期运行,”坎德说。“我所在的研究小组提出的问题是:你可以使用LLM生成Verilog代码,但芯片的安全性如何?从安全角度来看,这到底是好事还是坏事?”

LLM充当着桥梁,也是优秀的教育工具。然而,缺点是它们也提供了新的识别和利用漏洞的途径。

LLM作为教育工具

当OpenAI的ChatGPT于2022年11月推出时,许多人对其轻松生成查询回复的能力感到惊讶。根据新思科技EDA高级总监亚历山大·佩特的说法,这正是LLM目前在EDA设计流程中将要扮演的角色。目前,佩特表示他在EDA LLM方面的经验仅限于一些聊天机器人类型的应用程序,工程师可以在其中提出问题并获得设计问题的建议,尽管他警告说这些工具的质量“参差不齐”。

坎德对将LLM纳入硬件安全的痴迷是在攻读博士学位时产生的,他的博士论文最初侧重于将一种名为模糊测试的软件方法应用于硬件。该过程涉及许多关于测试哪些输入的决策,这些决策会影响发现漏洞的速度。他和同事们开始将 LLM 应用于这一过程,以加快其速度。这些程序在生成输入的同时,还充当硬件的监控器,在发现漏洞时发出警报。他们在第31届USENIX安全研讨会上发表的一篇论文中介绍了这项技术。虽然这种技术尚未得到广泛应用,但坎德希望这种情况会有所改变。

聊天机器人可以为陷入困境的工程师提供一种虚拟帮助台。“新思科技公司的佩特说:"EDA供应商正试图改进这些聊天机器人及其提供的信息,以协助设计人员处理C域的算法信号。“我们不会只询问某些功能是如何执行的。它们实际上会为你执行。你可以要求它们做一些简单的事情,比如你能放置这个新元件吗?你能改变这个新元素的大小吗?你能帮我运行模拟吗?你能在我的优化器和仿真中修改这些配置吗?通常情况下,作为设计人员,你需要手动修改这些配置。这些协同驾驶员是虚拟助手的升级版,而虚拟助手只是告诉你该做什么。协同驾驶员能够为你执行。”

除了改进功能等指标外,这类协助还可以包括自动实施更多安全措施的能力。佩特指出,他还没有看到在这种情况下认真讨论安全应用。

佩特说:我认为安全方面的问题还没有真正浮出水面,因为我们仍在努力让他们生成能正常工作的东西。“一旦你具备了这一点,你就会开始提高质量。这就是技术的自然发展。这就是我们的现状。它在路线图中,但不是近期内。”

波尔扎同意协同助手可能是下一步的发展方向。“这将是首次有机会将本地知识和行业最佳实践整合到一套工具中,”他说,“这是对技术的一种非常有趣的应用,因为你可以销售一种具有学习能力的产品,并且让它持续学习,从而真正掌握本地知识。”

西门子EDA电子板系统先进技术部总监钱德拉·阿克拉表示,目前正在开展大量研究,以寻找更好地协助电子系统设计的方法。

阿克拉说,“一种很有前景的方法是让这些模型能够将电子电路作为一种独特的模式来理解。如今的基础模型可以从文本、图像、视频和音频中提取知识,根据用户提示生成新内容。我们的目标是扩大这一能力,让模型能够从元件数据表和公开的参考设计中提取详细的见解,使它们能够更有效地根据用户输入生成电路设计。”

LLM需要安全的环境

与任何大型语言模型一样,面向硬件安全的程序只能产生与其训练数据集一样好的结果。一些有价值的知识库,如MITRE公司的通用弱点枚举(Common Weakness Enumeration, CWE),是广泛可访问的,并且已经在开发应用程序接口(API),以便在大型语言模型类型的工具中使用CWE。

然而,如果大型语言模型用于安全目的,那么这些模型本身也需要安全。波尔扎提出的一个解决方案是,只在特定时间将程序联网,让它们从CWE等数据库中刷新训练材料。

“你可以刷新本地副本,然后将其整合到设计技术知识库和实际已知问题中,”波尔扎说。“这才是CW真正捕捉到的东西,非常广泛。它捕捉了大量产品中存在的风险和通常被利用的问题,并对这些问题进行了笼统的描述。将其应用到具体的芯片设计中是巧妙运用好一工具的一部分。”

佩特表示,目标是构建一个工具,使客户能够在本地和安全的环境中持续使用。对一些人来说,这可能意味着转向非云环境。一他人可能会采取更极端的措施。

“每个人都需要自己决定云对其特定用例的安全性有多高,不同的人有不同的安全要求,”他说,“对一些人来说,他们只是抛开这些担忧,遵循行业标准。其他人则希望拥有物理上完全隔离的解决方案,没有任何互联网连接,这意味着不能使用像ChatGPT或OpenAI这样的解决方案,因为它们需要与另一台服务器通信的互联网连接。”

由于知识产权共享会带来的后勤问题,坎德表示,很可能每一家希望将大型语言模型融入其安全设计中的公司,都需要投入资源来训练拥有自己知识产权的模型。

“有一种可能性是,特别是如果模型在不断学习,那么它既会从接收到的提示中学习,也会从自身的回应中学习,因此攻击者可能会通过逆向工程从中提取信息,”坎德说道。“只要涉及到知识产权或专有设计,公司就会开始使用自己的服务器来运行大型语言模型,从而形成一个闭环。他们会从一个预训练模型开始,但一旦开始用他们的专有数据对其进行训练,并且开始用这些专有数据对其进行提示,就会形成一个闭环,而访问权限将仅限于该公司。”

知识产权只是训练中的众多关注点之一。如果大型语言模型要在EDA领域流行起来,它们不太可能成为普及的流行模型。像ChatGPT这样的大型语言模型是在惊人的数据量上训练的,但这些数据集是通用的。在芯片设计中使用能够回答有关威廉·莎士比亚作品问题的模型是没有用的。相反,为了使大型语言模型在行业中具有任何形式的适用功能,它们需要量身定制并进行训练。

“虽然当今的一些基础模型展现了对电子领域的广泛理解,但它们往往缺乏有效支持复杂电子系统设计所需的详细技术知识,”西门子的阿克拉说,“例如,当被问及如何设计DDR4电路时,像GPT4(ChatGPT)这样的模型可以提供高层次且通常准确的回答。然而,这些信息通常不足以直接转化为可操作的步骤或为电路的各个部分选择特定组件。因此,用户可能仍然需要依靠传统方法来解决此类问题。”

随着进步而来的风险

尽管将大型语言模型融入安全设计具有诸多优势,但也存在一些值得警惕的原因。安全意识强的设计者一直在与攻击者进行一场永无止境的竞赛,每当有新的防御手段出现时,攻击者就会找到新的进攻方式。

“我们需要特别注意的一点是,大型语言模型并非全然有利。”坎德指出,“作为硬件设计验证工程师和安全工程师,我们必须对大型语言模型保持警惕。它们能帮助我们发现漏洞,使设计更加安全,但考虑到大型语言模型的能力,它们也可能做出坏事,例如帮助攻击者抄袭代码。”

坎德提到的一个可能场景是,攻击者向大型语言模型输入信息,并要求其生成功能上等效的Verilog代码,以绕过抄袭检测工具。

“你可以让它构造其他攻击向量来插入木马,或寻找设计中的漏洞,攻击者也可以直接使用大型语言模型来找出硬件本身存在的弱点。”他继续说道,“大型语言模型的力量不仅掌握在设计者和验证工程师手中,也掌握在攻击者手中。”

坎德还警告说,由于训练大型语言模型涉及庞大的数据集,它们的使用可能会带来难以察觉的漏洞。这是半导体设计中使用大型语言模型(事实上也是普遍使用大型语言模型)时的一个常见问题。自ChatGPT流行以来,该程序在即时响应中“胡编乱造”、提供错误信息的倾向就备受关注。

“这里的新变量是,代码的一部分可能由大型语言模型编写,而它犯的错误类型可能与人类编写Verilog代码时犯的错误类型不同。”他解释道,“验证过程必须考虑到一些工程师几乎永远不会做但大型语言模型可能会做的事情,因为你用庞大的数据集来训练它,而且其中大部分数据来自GitHub或其他开源来源。那些开源代码中有很多漏洞,因此大型语言模型很可能是用有漏洞的代码训练的。”

结论

大型语言模型正在迅速融入各种任务中,横跨多个行业,EDA领域也不例外。这些人工智能工具尚未在EDA设计(包括安全设计)中得到广泛应用,但其推广工作已经开始。

到目前为止,这在很大程度上意味着设计人员可以向聊天机器人寻求帮助,以解决EDA过程中出现的问题。由于硬件安全专业仍然是一个相对小众的领域,一些专家认为这些聊天机器人将对工程师起到重要的教育作用。在将安全性融入芯片和系统设计的“左移”运动中,这些聊天机器人也可能大有可为。然而,虽然基于大型语言模型的辅助程序有可能实现,但并非近在咫尺。

*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。