数据专家共论AI时代数据安全治理之道,奇安信数据安全首席科学家:用魔法打败魔法

4月26日,2024中关村论坛年会“数据安全治理与发展”平行论坛举办。论坛紧扣发展趋势,紧跟数字经济发展特别是人工智能演进浪潮,邀请了中国科学院、中国工程院、清华大学、剑桥大学、香港科技大学等国内外顶尖科研院所专家学者交流前沿理念、分享研究成果。
同时,论坛也发布了7项重要实践成果。其中,北京智源人工智能研究院发布中文互联网语料库CCI 2.0,规模约500G,为经过严格清洗过滤的中文数据集;中国科学院信息工程研究所创新构建大模型安全技术测评体系,研究开发生成式人工智能安全风险测评平台,并依托该平台,举办首届生成式人工智能安全大赛,设置安全攻击、安全检测、对齐防护三大赛道,构建“众研、众用、众创”的中文大模型安全评估模式。
图片
参会者正观看成果发布内容。记者黄依婷 摄
论坛圆桌讨论环节,多位平台企业、研究机构、高校学者代表,围绕“AI大模型数据安全治理”的议题进行了对话。
清华大学计算机科学与技术系教授、人工智能研究院基础模型研究中心副主任黄民烈分析称,生成式人工智能时代的数据安全相比于过去有很大的不同,生成式人工智能会通过训练去组合、生成新的内容,这些新的内容可能没有在语料里出现过,但它依然是有害的;即便把训练数据处理得很干净,在生成式人工智能时代依然会面临有害内容的产生。
黄民烈举了个例子:“现在大家都在用关键词过滤等各种检测手段让大模型上线、提供服务,但是依然有办法让它越狱、失效,说出不合适的内容。”
奇安信数据安全首席科学家刘前伟从企业视角讲述了实践中遇到的问题。他介绍说,作为行业大模型的开发者,以及通用大模型的使用者,在实践的过程中经常会遇到两类问题:一是训练行业大模型时,语料库本身的安全如何保障?会不会有漏洞导致核心数据资产被泄露?二是对模型做微调时,标注数据的准确性,“标注数据的防篡改要求非常高,因为它是确保大模型质量最重要的保障”。
图片
论坛圆桌讨论环节。记者黄依婷 摄
要解决生成式人工智能带来的数据安全问题,在黄民烈看来,需要大量算法研究的支撑。他提出,生成式人工智能时代,数据安全层面面临的是不断组合和创造新的数据安全风险的问题,这种风险的彻底解决需要算法和工具的支撑,而不是靠人,或者一些静态的方法去做相对固定的检测。例如,可以研究一些针对性的对抗和攻击的方法,让算法自动地发现模型的漏洞和风险。
刘前伟将上述方法总结为“用魔法打败魔法”。他说:“只能通过用AI对抗AI的方式才能解决内容安全的问题,用过去传统的流量过滤的方式无法解决。用魔法打败魔法可能是解决安全问题上的出路。”
九派新闻记者 黄依婷 发自北京
【来源:九派新闻】