锐评丨专属水印,给AI换脸贴上“辨认符”

近几年AI发展迅猛,不少网友感叹:你不知道屏幕那一头是真人还是假人。为帮用户辨别真假,国家网信办起草的《人工智能生成合成内容标识办法(征求意见稿)》拟规定,AI生成合成内容须在显著位置打上“专属水印”,让用户一眼即知真假。

用户苦AI造假甚矣。熟人打电话、视频求助,慷慨解囊后却得知对方是“AI骗子”;类似“弱势群体受到不公正对待”这样似是而非的消息铺天盖地,有人信以为真、仗义执言,却获知是AI“逗你玩”;知名主持人朗读美文、名家摄影师捕捉瞬间、网络公号刊发惊人观点,很多要么是AI侵犯肖像权、要么侵犯著作权。很多老人不熟悉AI、看不透AI,屡屡被“障眼法”蒙蔽,被骗了钱还骗了感情。

AI造假的危害,不仅在散播谣言、扰乱社会秩序,不仅在助长诈骗、侵犯用户的合法权益,更在“眼见不一定为实”让真实变得更加稀缺,稀释了社会上难能可贵的信任感。

为帮用户识别真假,2023年起实施的《互联网信息深度合成管理规定》中明确,深度合成服务者提供可能导致公众混淆或者误认的深度合成服务时,应当提供显著标识功能。在此基础上,此次意见稿对AI“专属水印”的要求更加细致,不仅规定文本、音频、图片、视频、虚拟场景中,提示用户的显式标识应出现的位置,还指出生成AI合成内容的文件元数据,应添加隐式标识,以记录文件的来源、属性、用途、版权等关键信息。这意味着今后AI生成内容一旦造假,溯源将更加清晰。

过去,AI标识最大的困境在于,用的人不主动标、传播的平台不主动管,一出事就扯皮,相互推诿。此次意见稿的另一个亮点就是,相关主体的责任和义务更加明确,AI服务提供者、应用商店、平台网站、用户、主管部门均为责任主体,覆盖AI全生命周期。“违反本办法规定,未对生成合成内容进行标识造成严重后果的,由网信等有关主管部门按照有关法律、行政法规、部门规章的规定予以处罚。”各担其责、各守一摊,为的就是共同确保AI生成合成内容的真实性,维护好清朗的网络环境。

也有网友担心,AI“专属水印”在执行中可能走样。比如,用户恶意剪切“专属水印”,平台监测不到,该如何防范;AI生成合成内容,一半来自机器一半来自人工,需不需要标识;平台、应用商店等没有尽到标识义务,该如何及时提醒,等等。但无论如何,推出“专属水印”,就是迈出了防范生成式人工智能应用风险的第一步,为打击“换脸”等AI诈骗行为提供了有力武器。

谁不打“专属水印”,法律的板子就要打向谁。

图片

来源 北京晚报 | 实习记者 李霞

流程编辑 马晓双