AI 监管何去何从:2024 年事件背后的逻辑思考


















导语


在当今科技日新月异的时代浪潮中,2024 年注定是 AI 监管领域备受瞩目的关键年份。Google AI 模型遭受问询的事件犹如一颗投入湖面的石子,激起层层涟漪,而就在我们潜心对这一系列相关事件进行细致梳理和深入研究的进程里,又传出了 LinkedIn 的 AI 功能被英国信息专员办公室 ICO 紧急叫停的最新消息

图片

据详实统计,在短短几个月的时间跨度内,类似这样的事件竟然已累计发生 7 次之多。全球范围内,围绕 AI 的问询、调查、诉讼以及叫停等各类状况,在今年的春夏季节呈现出集中爆发的态势。当下的监管事件大致可以归纳为三大类别:

NO.1


三类大事件


其一,各国的数据保护机构(DPA)依据《通用数据保护条例》(GDPR)所展开的问询和磋商活动。在这一过程中,众多情况导致了 AI 训练被迫暂停,然而,这些禁令常常在短时间内又得以解除,恰似 2023 年意大利数据保护局 Garante 对 OpenAI 实施禁用的模式再现。

图片

其二,由各类权利组织主动发起的诉讼行动。在今年,noyb 针对 OpenAI、Meta、X 等多家企业在多个国家发起了策略性投诉,与此同时,英国本土的权利机构 Open Rights Group 也积极参与其中,弥补了相关领域的空白。这些诉讼举措在极大程度上对监管后续的行动方向产生了深远影响,并且在整个过程中起到了重要的塑造作用。

图片

其三,欧盟委员会基于《数字服务法》(DSA)持续发出的问询当中,有相当一部分是针对 AI 领域的,所涉及的问题涵盖了个性化推荐、幻觉和深度伪造、选举期间算法操纵等诸多方面。

NO.2


探讨与分析


隐私政策的变动已然成为监管行动频繁触发的常见源头。对于那些已然具备一定规模的企业来说,隐私政策哪怕是极其细微的变化,都极易吸引各方的高度关注。Meta、X 以及 OpenAI 等企业在对隐私政策进行更新以体现 AI 训练相关情况之后,很快便遭遇了监管方面的叫停举措。例如,Meta 在 6 月 26 日的隐私政策更新内容中,明确地提及了 AI 训练事宜,并且表明将正当利益作为其合法性的基础,同时赋予了用户 “拒绝权”;X 的相关表述则显得较为隐晦;OpenAI 则在 Help Centre 中详尽地阐述了使用用户 “内容” 开展 AI 训练的具体细节。LinkedIn 近期在更新 Help Centre 时,其 AI 训练在某些国家开关默认开启的操作方式引发了广泛的争议。就当前的实际情况来看,全球 AI 监管在隐私政策的表达充分性和清晰度这两个方面,尚未出现具有明确结论的案件或者处罚结果,但是可以预见的是,在未来,清晰且准确地表述使用个人数据进行 AI 训练的相关内容必将成为一项必须遵循的标准要求。

图片

数据保护影响评估的重要地位同样不可忽视。数据保护影响评估(DPIA)实际上是隐私政策的自然延伸部分,通常由企业内部自行制定,在监管机构有需要的时候予以提供。ICO 在对 Snap 展开调查之后,向整个行业发出了严肃警告,强调在 GenAI 产品推出新功能之前,必须要妥善管理好相关的数据保护风险。爱尔兰数据保护委员会 DPC 针对 Google PaLM 2 模型发起了问询,其核心关注点聚焦在谷歌是否有效地开展了 DPIA。欧盟新法规对 GDPR 的强化作用也在应对生成式人工智能应用风险方面得以体现,欧盟委员会发起问询并明确指出了三种特殊风险,并且还针对微软的两大模型进一步发起了问询。

图片

在同意、正当利益与退出等相关方面,2024 年夏天,澳大利亚工党议员 Tony Sheldon 发起问询后发现,Meta 在 AI 训练合规问题上对欧盟用户和澳大利亚用户采取了不同的处理方式,存在明显的差别对待现象。澳大利亚的隐私法由于受到布鲁塞尔效应的影响,其修改进程显得较为缓慢。关于使用个人数据进行 AI 训练是否需要事先获得用户同意这一关键问题,目前在法律层面尚未形成明确的定论。一些由监管机关主导的讨论虽然涉及到了同意问题,但是并没有给出确切的答案。正当利益作为一种合规方案,在实践中存在着较大的争议,ICO 对正当利益表示支持,然而其他国家的 DPA 却可能持有截然不同的立场。Meta 在更新隐私政策之后,ICO 曾经介入其中,最终导致 Meta 中止使用英国人的数据进行训练,不过 Meta 方面宣称其正当利益的合规方案已经得到了 ICO 的支持。在欧盟和美国,权利组织发起的策略投诉重点聚焦于同意 / 正当利益这一关键议题上,例如 noyb 认为 Meta 依赖正当利益的做法违反了 GDPR,英国本土的权利组织 ORG 也向 ICO 发起了针对 Meta 的投诉。

        机器幻觉问题是一个充满高度争议的焦点话题,从法律的视角来审视,幻觉治理本质上是一个责任分配的问题。noyb 认为模型生产商应当为模型输出的内容承担责任,此前在加航案中,法院最终支持了消费者的主张,要求平台按照被 “幻觉” 后的政策执行,但是加航案具有其自身的特殊性。作为一种系统性的问题,幻觉还会引发其他一系列的合规难题,比如有些厂商拒绝履行修正权,而是选择以数据删除来替代,EDPB ChatGPT 工作组认为这种做法并不恰当,然而截至目前,众多的监管行动尚未取得明确的结果。


        综上所述,AI 监管涉及多个维度和层面,其中包括隐私政策、数据保护影响评估、同意与正当利益以及机器幻觉等核心问题,这些都需要我们进一步投入精力进行深入的探讨和有效的解决。


图片