160部法规难解决AI伦理问题,专家称面临终极准则难题

人脸识别随处可见、自动驾驶事故频发、外卖骑手被困算法……随着技术突飞猛进,人工智能伦理问题逐渐显现。人工智能伦理的根本难题是什么?如何把原则落地?政府和企业如何各负其责?

6月2日下午,第三届北京智源大会举办“人工智能伦理、治理与可持续发展论坛”,多位专家学者就这些问题进行了深入讨论,寻求实现负责任、可信赖、可持续的人工智能技术的可能。

智源人工智能伦理与可持续发展中心主任曾毅在会上分享了自己的“伤痛”。根据最新研究数据,全球人工智能、计算机科学领域发布的文献有800多万篇,其中仅有8000篇左右是真正贡献于可持续发展目标的实现,比例低于0.1%。他直言,在面临来自社会伦理学的需求时,现在的技术发展并没有能够支持隐私和数据保护等伦理措施很好地落地。

挑战:未达到人的智能,却被赋予决策权

中国科技大学教授陈小平认为,当前人工智能遇到的很多伦理问题来自于技术的“界外效应”。他提出,“界内效应”与“界外效应”要区分开来。

例如,以算法主导的个性化推荐,让用户看到自己感兴趣的内容,显著缓解了信息过载的问题,在信息产业范围内取得成功,这是其界内效应。而在社会学层面,算法推荐加剧了“信息茧房”的形成,这就是其界外效应。

陈小平表示,在设计产品时,产品研发人员通常想不到界外效应,这对于伦理意识的提升是一个重大挑战。

中国人民大学副教授郭锐提出了类似的观点,他把这个伦理难题总结为“因果联系“。他举了外卖骑手被算法支配的例子,不断优化的算法会对外卖员产生如此负面的影响,这是算法的设计者和平台公司都没有意料到的结果。“从本质上说,(设计)任何技术应用很难看到其外在的影响,这导致了种种问题。”

中国人民大学副教授郭锐

如今,小到为学生考试打分,大到一场司法判决,人工智能在越来越多的领域帮助决策,却屡屡引发争议。郭锐指出了这背后的一个基本处境——人工智能并没有达到人类的智能,却被人类赋予了决策的权力。

针对这样的现状,中国社科院研究员段伟文也分享了自己的思考:对于自动算法的决策,个人能不能否定拒绝?他认为,算法决策不应是唯一方案。

他还从社会权力结构的角度提出了目前人工智能伦理的又一挑战——再中心化。他介绍,个人电脑以及互联网技术最初的构想是去中心化的,而在人工智能时代,用户数据变成了一种资源,这种资源赋予了科技巨头巨大的力量,所以整个社会面临再中心化的问题。

在劳动结构层面,他认为,人的工作逐步被人工智能取代之后,对社会产生怎样的影响,也是我们需要思考的议题。

人工智能技术应用为什么会出现这么多伦理问题?陈小平认为,真正的原因在于主流创新模式的核心内涵是市场要素的商业化组合,主要通过科技推动经济发展,除了商业伦理要求之外,没有其他的伦理要求。他提倡,将目前主流的创新模式升级为公益创新——市场要素和非势场要素的公益性组合。

原则:以人的根本利益为原则,最大限度收集社会共识

应对人工智能伦理挑战已是全球共识,复旦大学教授王国豫介绍,据不完全统计,现在全球以类似“负责任的人工智能伦理”或者“人工智能负责任发展”为标题的伦理准则已有160多部。

这么多伦理法规之下,全球仍未能走出人工智能伦理困境。解决伦理问题是否有一个根本出发点?

陈小平认为,现在很多人认为人工智能伦理的作用就是对人工智能出现的负面问题(如隐私、算法公平性)加以限制,这是一种误解。他说,看待人工智能要从双重的角度出发,思考应该让它做什么,不应该让它做什么。

“从双重的作用出发,就会得到人工智能伦理的终极使命,也就是应该做和不应该做的终极依据——增进人类福祉。我觉得这个使命实际上是有共识的,但是这个共识没有放到最高的位置。”他说。

郭锐也提到,我们面临“终极准则”的难题。例如,在人脸识别技术中,人们享受它的便利和高效,却也希望拥有自由和隐私,这就是一种终极准则的冲突。关于如何确定终极准则,郭锐指出,要以人的根本利益为原则,最大限度地收集社会共识,具体情况具体应对。

清华大学教授梁正和段伟文则表示,对人工智能的治理应该是一种主动、系统化的治理,而不是由负面事件推动所进行的被动治理。他们都强调了“智慧”,包括如何创新发展,如何平衡重大风险,以及如何为世界贡献中国智慧。

延伸:警惕主体性丧失,进行可持续“再教育”

无论是“增进人类福祉的终极依据”,还是“人的根本利益原则”,核心几乎都在于人。在专家们看来,人工智能带来的伦理问题远不止隐私与决策公平,人工智能在未来会对人产生更多潜在的影响。

段伟文举了出租车司机的例子。由于地图导航技术的发展,很多出租车司机的识路技能几乎丧失,在很多场景下,技术的发展让人的技能退化,人的主体性也受到威胁。

中国社科院研究员段伟文

他指出,人工智能产业以数据为基础,数以百万计的数据标注员群体随之诞生,人工智能的发展产生了大量如数据标注、审核这样的隐藏劳动。“智能化需要越来越多的‘幽灵工作’,要思考‘幽灵工作’为什么成为‘幽灵工作’,怎么样让人的价值在当中能够呈现。”

随着人工智能技术的发展,机器替代人类工作已成为趋势。如何应对人工智能带来的失业也成了很多公众关心的问题。段伟文认为,在机器替代人的过程中,对人的“再教育“非常重要。

“将来可能一个影像科的医学生学了八年,毕业的时候发现自己的工作被机器代替了。”他说,“我们每个人都要对智能社会,人工智能时代它对我们的影响有一个深刻的理解,这里面是可持续技能化教育和智能素养,本身有了认识以后,至少在一定程度上能够减少未来受的打击。”

但在清华大学教授朱旭峰看来,不必担心人工智能会带来大规模失业的问题。他说,人工智能的出现不会主动让人失业,而恰恰是因为人口老龄化、劳动力越来越少,反过来需要人工智能的介入。

责任:政府分级治理,不能过度依赖企业自律

在具体实施的层面上,专家们对人工智能伦理治理都给出了一个共同答案:多方协同——政府、企业、专家、公众共同参与。

朱旭峰认为,政府首先要负起支持创新、维护市场公平、建立规范的制度等一般责任。他还特别强调了另一个很重要的政府职能——政府是人工智能使用者,没有政府在背后的大量支持和使用,人工智能不可能发展起来。

段伟文指出,政府要对人工智能重大风险要有所预见,同时也要划定伦理和法律上的红线。

梁正则提出了多维共治的概念,针对不同的情景要使用不同的工具,进行分级治理。他建议,根据一项技术发生风险的概率和风险所造成后果的严重程度这两个维度对人工智能的应用进行分级,及时治理。例如,在自动驾驶技术治理方面,通过建立分类别自动驾驶技术的准入标准、安全标准,包括车联网、车协同标准规范,提供技术能够真正落地的制度依据。

清华大学教授梁正

关于企业责任,梁正认为,一方面,企业有逐利的天性,不可能站在第三方的角度主动放弃巨大利润。但另一方面,全球范围内人工智能还没有大家公认最理想的伦理治理规则,对企业来说,谁越早的去解决伦理问题,就意味着它在这个领域里获得新的竞争优势。他倡议领军企业站在这个角度去做出表率和示范。

曾毅也指出一个现象,很多人工智能企业提出人工智能伦理和治理的原则,正在追求积极落地的时候,却出现在工信部App违规的名单上。他认为,强大的企业有一些产品部门为了产品发展角度,实际上做出了很多越线的事情,虽然不在顶层的设计当中,但是反噬顶层的设计。

他认为,未来政府要加强对于政府服务基础设施构建的这些服务提供商监管,不能依赖于服务提供商自己在伦理治理上的造诣。政府要发挥不可替代的作用,不仅仅是让企业自律,企业提供服务,更关键的是政府提升对伦理治理潜在风险的认知。

此外,多位专家都提到了公众参与对于人工智能伦理治理的必要性。梁正认为,在公众认知这个层面,还存在信息的不对称,公众对人工智能的了解不够,对风险认识不足。“应该从负责任的角度去做宣传教育。可能刚开始成本会比较高,但是在后面理解公众沟通负责任的基础上会走的更远。”他说。

采写:南都见习记者李娅宁 记者蒋琳