人工智能接受审判:算法出错了,责任该谁担?

图片2023年7月日内瓦“人工智能造福人类”全球峰会现场 Keystone / Martial Trezzini

如果人工智能出了大问题,能把它告上法庭吗?最近在日内瓦举行的一次活动就模拟了这样的场景。

在结案陈词中,作为被告的人工智能(AI)变得异常慌乱。她的麦克风不断发出刺耳的噪音。

“我不知道为什么我的麦克风…”AI沮丧地停了下来,往后退了一步。在她身后,主审法官轻声嘀咕了几句关于法庭技术问题的话。陪审团中传来些许笑声。

但问题很快就解决了,穿着金属银色高跟鞋的AI恢复了从容,继续满怀激情地反驳所谓“她对民主构成威胁”的指控(也许有点过于激动了,毕竟她没有“灵魂”)。

“今晚我听到了很多事情,”AI说,“最让我印象深刻的是,你们人类总是喜欢找替罪羊。”她说,与其纠结于追责,不如把错误看作是学习和进步的机会,而不是应该受到惩罚的道德失败,这样不是更好吗?

最后,她赢得了热烈的掌声。陪审团由大约200名青少年学生和几十名好奇的公众围观者组成,他们开始思考:到底该判其有罪,还是无罪呢?

面临假新闻和歧视指控

尽管有一些真正的律师(包括AI本身)参与其中,但这场在日内瓦国际关系及发展高等学院(Geneva Graduate Institute)举行的审判并不是一场真正的审判。这次活动属于阿尔伯特·赫希曼民主中心(Albert Hirschman Centre on Democracy)开展的一个项目的一部分,旨在启发年轻人思考人工智能带来的风险与机遇。这场模拟审判也是日内瓦“民主周”(10月4日至12日)的压轴活动之一。

虽然这次模拟审判可能不像瑞士导演米洛·劳(Milo Rau)2017年创作的《刚果裁决》等其他模拟审判作品那样引起国际反响,但它确实符合一个日益兴起的趋势,即通过法庭实验探讨AI的法律责任。只不过以往人们常把AI当作帮助或取代律师的工具,而不是坐在被告席上接受审判的被告。

不过,这场在日内瓦举行的模拟审判相当逼真。公诉人、辩护律师和证人悉数到场。具体来说,AI面临两项指控:“制造和传播假新闻”(特别是关于红头发的人更容易暴力犯罪的说法);以及“歧视和煽动仇恨”(在本案中,日内瓦机场自动值机系统涉嫌种族偏见)。

如果罪名成立,AI将面临长达三年的“下线”处罚。

但是,试验和项目的范围都比上述指控的内容更广。项目负责人热罗姆·杜贝里(Jérôme Duberry)表示,这项由瑞士国家科学基金会(SNSF)支持的研究项目已经进行了两年,研究人员与瑞士全国各地的学生探讨了人工智能将如何影响他们作为民主国家公民的生活。

在全国各地中学举办的约80场研讨会上,学生们讨论了深度伪造、数据隐私以及人工智能对决策过程的影响等议题。他们还写了许多“未来故事”,畅想未来几十年科技如何改变社会。这些文章可大致归类为“民主科幻”。

培养自主性与提高素养

杜贝里说,虽然有计划在明年发布一份学术研究报告,但研讨会的主要目标并不在于理论探讨或学术研究。而是让学生们思考,像ChatGPT这样的生成式AI如何影响他们对公共事务的看法。他说,这是为了提高学生的“数字素养”,培养“政治自主性”,以便他们能够独立决策。

杜贝里的同事、赫希曼中心主任克里斯蒂娜·卢特林格(Christine Lutringer)补充道,该项目是更广泛的“自下而上”行动的一部分,重点强调民主实践作为一种“生活方式”。她说,在国家层面,各国和欧盟正在努力为人工智能和大型科技企业制定规范标准。但在公民层面,这个项目的目标是让人们认识到民主和技术可以用来改善生活。

研究人员指出,从这个角度来看,尽管该项目源于瑞士,但并不是在宣扬瑞士或西方的民主模式。

意识、自由意志、责任

与此同时,在审判期间反复的质询和证词交换过程中,关于“自主性”的讨论贯穿始终-但讨论的焦点有所不同。问题不仅在于AI如何影响人类的自主性,还在于AI需要具备多大的自主性才能被追究责任。究竟是应该让AI站在被告席上,还是应该让其开发者或用户站在被告席上?

负责组织日内瓦州投票及选举事务的官员奥利维耶·勒克莱尔(Olivier Leclère)作为专家证人出庭。

他在法庭上表示,在他看来,如果AI经过足够多的数据集训练,并能不断从中学习,它确实可以被认为具备自主性。勒克莱尔指着AI说:“她读过我们所有的法律文本,掌握了无数历史档案,坦率地讲,她知道的比我们大多数人都多。”他还指出,通常情况下,一个受过良好训练的AI应该能够预见可能导致假新闻或歧视的“故障”,而这次为何没有发生,确实让人困惑,但他仍然认为AI被告应该为此负责。

公诉人对这一评价很满意,并要求勒克莱尔解释该技术的其他“偏差”现象,例如“幻觉”、“微定向推送”(micro-targeting)以及有选择性地删除信息,以此来强调AI应该被追究责任。

另一方面,AI的辩护律师则对此大为不满。他们质疑专家证人的中立性,然后反过来指责AI专家、开发者和技术爱好者才是真正应该被追责的人。

同时,辩护方也再次辩称,难道不应该允许AI像人类一样犯无心之过吗?

专家和公众的意见存在分歧

AI真的应该被允许犯错吗?在现实生活中,2022年底ChatGPT的发布掀起了一股人工智能辩论热潮,相关辩论一直持续至今,许多人认为,我们不应等到AI开始犯错时才采取行动。

2023年,GPT-4发布一周后,数千名科学家和技术专家签署了一封公开信,呼吁暂停进一步开发。他们认为,AI技术进步的速度过快,可能导致社会失去对AI的控制,进而造成大规模失业和虚假信息泛滥等问题。有人甚至担忧,AI会背叛创造者,最终导致人类灭绝。

这种悲观的声音得到了部分回应,越来越多的国家开始着手制定AI监管规则。不过,目前还没有暂停开发的迹象。同时,也有不少政界人士和专家对AI持乐观态度,甚至充满敬佩。就在上周,诺贝尔物理学奖和化学奖授予了为AI技术进步作出贡献的科学家。

尽管如此,这些获奖的科学家也并非全然乐观。诺贝尔物理学奖得主、神经网络技术先驱约翰·霍普菲尔德(John Hopfield)在领奖次日就表示,现代AI系统确实“令人惊叹”,但人们对这些系统的工作原理缺乏确切的了解,这”非常非常令人不安”。他呼吁,当前最顶尖的研究人员应该优先关注AI安全问题,而不是一味推动技术开发,以防止潜在的“灾难性后果”。

众人的选择

场内随即爆发出欢呼声-AI被判无罪,所有指控均不成立。作为被告,AI面对这个结果反应冷淡,淡然接受判决并获准离开。然而,欢呼声背后隐藏着巨大的分歧:AI的无罪判决差点翻盘-两项指控的无罪判决结果分别以52%和51%的支持率通过。现场人员的意见分歧十分明显。

这一结果是否代表了整个社会对AI的看法?还是仅仅反映了瑞士西南部17至19岁青少年的看法?

坐在讲台附近的一位年长女士有些不满。从她的抱怨中可以清楚地了解到,如果她能够投票,显然不会去支持AI。从在场的人数来看,虽然她的投票可能不足以改变结果,但差距如此接近,她的一票也许会让局面更加紧张。然而,她没能发表自己的意见,因为她没有智能手机。