孙茂松:人工智能不发展才是最大的不安全,要用高超技术“治理”

腾讯科技讯 (郭晓静) 4月25日,2024中关村论坛在北京开幕,本届论坛以“创新:建设更加美好的世界”为主题。4月26日,论坛举办了以“数据安全治理与发展”为主题的分论坛。欧洲科学院院士、清华大学人工智能研究院常务副院长孙茂松,围绕《人工智能大模型安全治理》发表主题演讲演讲。
随着人工智能大模型的不断迭代升级,其性能得到优化的同时也带来了安全风险的增加,可能导致价值偏见、隐私泄露、虚假信息等问题的出现。孙茂松赞同人工智能治理的必要性,但是同时表达了要“运用高超的治理技术对人工智能进行治理“。他认为南开大学前校长龚克的观点十分正确,“人工智能不发展就是最大的不安全”,大模型确实存在安全隐患,我们不能让水太混,但是也要避免“水至清则无鱼”的情况。
图片
以下为演讲实录:
尊敬的各位领导、专家,数据安全是一个重大问题。在此,我想分享一些个人看法,若有不成熟之处,还请大家不吝批评指正。
2023年4月,中央政治局召开会议,强调了重视通用人工智能发展的重要性,并提出了两个任务:一是营造创新生态,二是重视风险防范。在我看来,这在中国乃至世界人工智能发展历史上都具有里程碑意义,因为中央已经正式采纳了“通用人工智能”这一概念,预示着这一领域在中国将迎来巨大的发展前景。
当然,在这一发展过程中,我们必须运用极大的智慧来完成这两项任务。一方面,人工智能,特别是生成式人工智能,作为新质生产力的重要引擎,已经在全球范围内形成了共识。我记得南开大学和天津大学前校长龚克先生曾提出一个观点,我非常赞同,即“人工智能不发展就是最大的不安全”。另一方面,生成式人工智能由于其方法的特性,确实存在一些安全隐患,如幻觉现象等,因此,对其进行治理是必要的。我们不能让水太浑,但同时也要避免“水至清则无鱼”的情况,这确实需要我们运用高超的治理技术。
过去一年,我有幸在北京网信办许主任的领导下参与了一些大模型治理工作。作为一名专家,我感到北京网信办在这方面的把握非常准确,很好地落实了中央的精神,这是我的一点感受。
刚才郭校长也提到了对生成式人工智能进行治理的重要性,我个人认为这一点在全球范围内已经形成了共识。无论是美国、欧洲还是中国,大家都认同需要对人工智能进行治理,而且大的原则基本相似,如“人工智能向善”、“人工智能不作恶”等。因此,我认为在全球范围内提出一个能够被广泛接受的治理框架的条件已经基本成熟。
当然,在具体的善恶判断上,不同地区可能会有一些差异,但总体上,我认为是可以形成共识的。生成式人工智能带来的技术挑战确实存在,比如它能够大量产生数据。我之前的研究领域是机器翻译,我们曾从互联网上抓取大量人工翻译的双语段作为依据。后来我们发现,机器翻译产生的双语段质量并不高,如果用这些数据训练机器翻译系统,反而会造成损害。因此,我们必须依靠技术来甄别互联网上的双语段,哪些是人工翻译的,哪些是机器翻译的。这正是生成式人工智能带来的挑战之一。
此外,随着其生成能力的增强,如果放任不管,机器生成的内容很快就会超过人类创作的内容,而且其中很多内容可能与事实不符。如果用这些内容来训练我们的大模型,将会带来麻烦。因此,这一领域确实面临着许多深层次的挑战,需要全球各国政府和学者共同努力,从技术上解决这些问题。
我认为,我们现在应该着手做的一件事是建立一个权威的生成式人工智能安全评测数据集。未来所有上线的大模型都应该先通过这个数据集的测试,确保其能够反映所有的正能量。然而,构建这样一个数据集本身也面临着挑战,因为它需要涵盖方方面面的内容。我认为,我们应该遵循“法无禁止即可为”的原则,明确测试集中的负面清单,即明确哪些是不能触碰的,而在不触碰负面清单的前提下,应尽可能保持宽松。因此,这一块可能是我们应该立即着手去做的。
但是,生成式人工智能不仅仅是在治理上给我们带来问题。实际上,国际上现在也在讨论,生成式人工智能其实也是对安全治理提供了新的、更有效的手段。例如,在数据中存在许多隐私问题,但我们可以使用生成式人工智能生成符合真实情况的数据,同时规避隐私风险。这显示了生成式人工智能的威力,如果没有这项技术,我们以前是无法做到这一点的。
另外,我们面临的管理环境非常复杂,有些情况可能尚未在互联网上出现,你没有那种数据,但你可能预测到这种情况可能会发生。这时,你可以通过给大模型增加某些条件,如增加特定的提示词(Prompt)或标签(Tag),让它生成你可能尚未遇到的情景的数据,从而预先进行研判。
因此,实际上生成式人工智能在数据治理方面也具有非常重要的正面推动作用,更不用说数据清理了。比如,我之前提到的自动分类系统,判断哪些是人工翻译的,哪些是机器翻译的,哪些是人工编写的,哪些是机器生成的,生成式人工智能在进行这种判别方面的工作应该比过去做得更好。
由于时间关系,我今天就讲到这里,如果有不当之处,请大家批评指正。谢谢大家!