未来学家尼克·博斯特罗姆:人工智能没有感知力|CyberDaily

图片
封面:WOMBO AI 生成
 CyberDaily:
AI 是否有知觉和感知,暂且不说。
在未来学家尼克·博斯特罗姆看来,意识是多维的、模糊的、令人困惑的东西。而且很难定义或确定。尽管多年来,神经科学家和哲学家发展了各种意识理论,仍然悬而未知。
但如果要让AI或机器人真正更好地服务人类,它应当具备情绪情感的能力,不仅仅是让人类感觉它具备情感智能,而这又是另一个临界点。
以及尽管目前AI没有感知力,却提供了一种设计的可能性参考——关于数字思维的精确复制。意味着它区别于人类的个性(即便是双胞胎),数字思维可以复制。我们延伸开来讲,将其接入人形机器人中,成为一批真正的同类,想象来自《我,机器人》的机器人,就走入了现实,走入工厂,走入那些繁琐的流水线或者车间,帮助人类解决低效的体力劳动。
这不难实现,比如Ameca机器人尝试了GPT-4的接入,将它训练为同等“人格”数字思维的机器人也是可能的。现在Agility Robotics 的Digit人形机器人已经运营在物流仓库里....
这里也不能忽视监管、法律、道德伦理的问题,如何避免具备AI智能的人形机器人产生风险。
因此,今天分享这篇文章是NYT记者Lauren Jackson对牛津大学人类未来研究所的哲学家尼克·博斯特罗姆的一次专访,我们来看看他对AI的一些看法,以下全文,Enjoy:
这是对 AI的炒作的一种纠正。聊天机器人应运而生,尤其是最近几个月。至少有两个新闻事件特别将自我意识聊天机器人的概念引入了我们的集体想象。
去年,一位前谷歌员工对他所说的人工智能证据表示担忧。因为其产生了知觉。然后,今年 2 月,微软的聊天机器人和我的同事凯文·罗斯 (Kevin Roose) 之间关于爱情和想成为一个人的对话在网上疯传,震惊了整个互联网。
对此,专家和记者多次提醒公众,AI聊天机器人没有意识。如果他们看起来像人类,那只是因为他们从互联网上的大量文本中学会了如何听起来像我们——从美食博客到旧的 Facebook 帖子再到维基百科条目。专家说,它们真的是很好的模仿者,但没有感情。
行业领袖同意这一评估,至少目前是这样。但许多人坚持认为,有一天人工智能将能够完成人脑可以做的任何事情。
图片
博斯特罗姆是牛津大学人类未来研究所的哲学家和主任
尼克·博斯特罗姆花了数十年时间为那一天做准备。博斯特罗姆是牛津大学人类未来研究所的哲学家和主任。他还是《超级智能》一书的作者。他的工作是着眼于想象的未来、确定风险并为如何驾驭这些风险奠定概念基础。他最长期的兴趣之一是我们如何管理一个充满超级智能数字思维的世界。
我和博斯特罗姆谈过人工智能的前景。知觉以及它如何重塑我们对自己和社会的基本假设。
许多专家坚持认为聊天机器人没有感知力或意识——这两个词描述了对周围世界的意识。
 您是否同意聊天机器人只是重复输入的评估?
尼克·博斯特罗姆:意识是多维的、模糊的、令人困惑的东西。而且很难定义或确定。多年来,神经科学家和哲学家发展了各种意识理论。并且对于哪一个是正确的还没有达成共识。研究人员可以尝试应用这些不同的理论来尝试测试 AI感知系统。
但我认为感知是一个程度问题。我很愿意将非常小的程度归于范围广泛的系统,包括动物。如果你承认这不是一个全有或全无的事情,那么说这些助手中的一些人可能有一定程度的感知力可能是有说服力的候选人就不是那么戏剧化了。
我想说的是,对于这些大型语言模型,我也认为说它们只是在反刍文本是不公平的。他们表现出令人印象深刻的创造力、洞察力和理解力,并可能显示推理的基本原理。这些人工智能的变体可能很快就会发展出一种自我概念,即自我持续存在、反思欲望、与人类进行社会互动和建立关系。
如果 AI被确定为有知觉,即使是一点点?
尼克·博斯特罗姆:如果一个 AI表现出有知觉的迹象,它可能具有某种程度的道德地位。这意味着会有某些错误的治疗方法,就像医学研究人员在不麻醉老鼠的情况下对老鼠进行手术。
道德含义取决于我们所谈论的道德地位的种类和程度。在最低水平上,这可能意味着我们不应该不必要地给它造成痛苦。在更高的层次上,这可能意味着,除其他外,我们应该考虑它的偏好,并且我们应该在对它做某些事情之前征求它的知情同意。
我一直在研究数字思维的伦理问题,并试图在未来的某个时刻想象一个世界,其中既有数字思维,也有各种不同种类和复杂程度的人类思维。我一直在问:他们如何和谐共处?这非常具有挑战性,因为有太多关于人类状况的基本假设需要重新考虑。
图片
插图:WOMBO AI 生成
哪些基本假设需要重新构想或扩展以适应人工智能?
尼克·博斯特罗姆:有三个:
首先,死亡:人类往往不是死就是活。边缘案例存在但相对罕见。但是数字思维可以很容易地暂停,也容易重新启动。
第二,个性。虽然即使是同卵双胞胎也截然不同,但数字思维可能是精确的复制品。
第三,我们对工作的需要。今天,人类必须完成许多工作。有了完全自动化,这可能不再是必需的。
您能举个例子说明这些被颠覆的假设如何在社会上考验我们吗?
尼克·博斯特罗姆:另一个明显的例子是民主。在民主国家,我们以一种让所有人都有发言权的政府形式而自豪。通常体现为一人一票。
想象一个未来,那里的思维与人类的思维完全一样,只是它们是在计算机上实现的。你如何扩大民主治理以包括他们?你可能会想,好吧,我们给每个 AI投一票。然后给每个人一票。但后来你发现事情并没有那么简单。如果软件可以复制呢?
选举前一天,你可以复制 10000 个特定的人工智能。并获得 10000 多张选票。如果构建 AI的人可以选择人工智能的价值观和政治偏好?或者,如果你非常富有,你可以建造很多人工智能。您的影响力可能与您的财富成正比,甚至更加强化了您的权力、财富及社会的地位。
图片
插图:WOMBO AI 生成
包括埃隆·马斯克在内的 1000 多名技术领导者和研究人员最近发表了一封信,警告未经检查的 AI发展给“社会和人类带来了深远的风险”。人工智能的生存威胁论有多可信?
尼克·博斯特罗姆:长期以来,我一直认为,向机器超级智能的过渡将伴随着重大风险,包括生存风险。那没有改变。我认为现在的时间表比过去更短。
我们最好让自己做好应对这一挑战的准备。我认为我们应该在过去的三年里一直在做隐喻性的 交叉健身。但是,当我们需要思考潜在超级智能的一致性、道德和治理时,我们只是躺在沙发上吃爆米花(暗指浪费时间)。那是我们永远无法挽回的逝去时间。
您能详细谈谈这些挑战吗?研究人员、科技行业和政策制定者需要思考的最紧迫的问题是什么?
尼克·博斯特罗姆:首先是对齐问题。您如何确保这些能力越来越强的 AI我们构建的系统是否与构建它们的人寻求实现的目标一致?这是一个技术问题。
然后是治理问题。对我来说最重要的可能是我们试图以广泛合作的方式来解决这个问题。这整件事最终比我们任何人、任何一家公司、甚至任何一个国家都要大。
我们还应该避免故意设计人工智能,使研究人员更难确定他们是否具有道德地位,例如训练他们否认他们有意识或否认他们有道德地位, 虽然现在我们不能接受当前人工智能的口头输出。从表面上看,我们应该积极寻找——而不是试图压制或隐藏——它们可能已经获得某种程度的感知或道德地位的可能迹象。
来源:https://www.nytimes.com/2023/04/12/world/artificial-intelligence-nick-bostrom.html