三位图灵奖得主齐聚WAIC: 未来人类生产效率将翻10倍

全文4124字,阅读约需12分钟,帮我划重点

划重点

012024年世界人工智能大会上,三位图灵奖得主拉吉·瑞迪、曼纽尔·布拉姆和姚期智齐聚一堂,探讨人工智能的未来与风险。

02拉吉·瑞迪强调人工智能作为工具可以显著提升人类能力和生产力,但技术带来的潜在风险与挑战也不容忽视。

03曼纽尔·布拉姆探讨人工智能与人类意识的关系,认为理解人类大脑的运作方式对人工智能的发展至关重要。

04姚期智分析人工智能的三大风险,包括网络安全风险、社会结构的颠覆风险以及计算能力带来的不可预测性。

05最后,三位专家呼吁在各个领域充分利用人工智能来促进人类的发展,同时制定有效的治理策略应对技术风险。

以上内容由腾讯混元大模型生成,仅供参考

腾讯科技讯 7月4日消息,在2024年世界人工智能大会上,三位图灵奖得主——拉吉·瑞迪、曼纽尔·布拉姆、姚期智齐聚一堂,就人工智能(AI)的未来与风险展开对谈。
拉吉·瑞迪教授强调了人工智能作为工具可以显著提升人类能力和生产力,同时也指出了技术带来的潜在风险与挑战。他认为,虽然治理和安全是当前的主要关注点,但更重要的是在各个领域充分利用人工智能来促进人类的发展​​。
曼纽尔·布拉姆教授探讨了人工智能与人类意识的关系,分享了他在有意识的图灵机模型方面的研究。他提出,理解人类大脑的运作方式对人工智能的发展至关重要,并强调了多处理器协同工作的潜力​​。
最后,姚期智教授分析了人工智能的三大风险,包括网络安全风险、社会结构的颠覆风险以及计算能力带来的不可预测性。他特别关注人工智能治理问题,认为在技术快速发展的背景下,制定有效的治理策略迫在眉睫​​。
图片从左到右依次是:沈向洋、拉吉·瑞迪、曼纽尔·布拉姆、姚期智
下面为对话实录:
沈向洋:特别荣幸能有这个机会跟大家进行一个小组讨论,这三位都是我的老师、导师,特别的人物,我快速地介绍一下三位专家。
首先第一位,我最左侧的拉吉·瑞迪,1994年获得了图灵奖,他拿到图灵奖的时候我还是他的学生,这一点让我特别骄傲。第二位曼纽尔·布拉姆教授,也是卡内基梅隆大学的教授,非常棒的老师和学者,1995年获得图灵奖。最远的一侧是姚期智,清华大学的教授,2000年获得了图灵奖。今天请三位专家跟我们分享一下有关人工智能的未来,甚至可以谈谈有关人工智能的过去。
拉吉先生,您可不可以说一说我们如何在这个时代思考人工智能?"人工智能"(Artificial Intelligence)这个词,就是您的导师约翰·麦卡锡1956年在达特茅斯会议上创造出来的。您当时获得图灵奖是因为建立了一个大规模的人工智能系统。实际上您现在也在思考人工智能的愿景、里程碑以及它的风险。请跟我们分享一下您对人工智能的看法,以及您的担忧是什么?
拉吉·瑞迪:我今天上午听了大家的讨论,我很惊喜也很高兴看到大家都关注治理方面的风险问题、以及对安全性的担忧。但我们应该思考如何在每个领域里更多地使用人工智能。我们应该把它视为一个工具,来进一步加强人类的智能和能力。不管你是谁,你都应该有能力去做你想做的事,并利用AI工具将速度扩大10倍到100倍。问题是怎么能做到呢?我们需要做哪些研究?需要进行哪些投资?但现在还没有做到这一点。
第二点,联合国的发言人提到了能力建设。现在我们的教育体系需要培养了解人工智能的下一代人,他们需要用人工智能来做好自己的工作。我们不能解决别人的每个问题,但是我们能让每个人把自己的工作做好。
沈向洋:谢谢拉吉。接下来请曼纽尔讲一个非常重要的人工智能方面的问题,也是您过去几年所研究的一个问题——“意识”这个神秘的东西。
图片图:曼纽尔·布拉姆
曼纽尔·布拉姆:非常感谢。我的导师是马文·明斯基,我还有另外一个导师麦卡锡,他们和皮茨一起定义了这个领域。我很幸运能和他们一起学习,我从二年级就开始试图理解人的大脑,我的老师跟我母亲说我可能上不了高中,我母亲为此感到困扰,但我并没有觉得苦恼。我问我的父亲“我能做什么来变得更聪明?”他说,“如果你知道你的大脑里在发生什么,那么你就会变得更加聪明一些。”
非常幸运,我做的工作是跟意识有关的。我已经做了二十多年了,这个行业也在不断发展,我们越来越了解大脑是怎么运作的,现在研究意识已经被大家普遍接受了。1958年当我跟麦卡锡说我想研究意识时,他告诉我不要去研究意识。他是一个很了不起的人,各方面都很鼓励很积极,但当时他给了这个建议。
意识能够给我们想法,让我们去建立通用人工智能。莱诺·布鲁姆和我已经创立了一个意识的模型,我们叫做有意识的图灵机(CTM)。这个CTM部分是基于图灵的工作的。它的想法是建立一个非常简单的、你想要理解的东西的模型。图灵建立了自己的图灵机,第一个计算机。我们的工作也是基于神经科学家伯纳德·巴尔斯建立的大脑模型。
这个模型告诉我们,我们要把大脑里发生的事情想象成一个剧场。就像现在这里有很多的观众,有很多的专家,他们都在听台上发生什么。台上有人在讲话,有人在提问题,有人在回答,这就是向所有的观众进行广播。发生意识的时候,就是所有的听众听到了所传播的那个有意识的想法。
我之所以讲这一点,是因为这个模型告诉我们,我们可以让很多的处理器同时工作。我们大脑里有一百多亿的神经元,这些处理器在听舞台上发生什么,然后做出回应。这个模型很神奇的地方在于,它告诉我们怎样去做各种各样的事情。
沈向洋:我能不能先打断您一下?等会儿再接着讲。曼纽尔,您讲的这个有意识的图灵机模型是非常有意思的,毕竟我们刚开始研究人工智能的时候,就是想知道大脑是怎么运作的,我们等会儿回到这个话题。接下来我们问一问姚老师,您在计算机科学领域取得很多成就,最近您也非常关注人工智能,包括非常重要的话题——人工智能治理,您一直在思考治理的问题,您能不能进一步分享一下为什么我们现在迫切地关注这个问题?
姚期智:谢谢,今天早上我们已经看到了很多人所讲的人工智能的潜在问题、潛在的风险,以及我们应该怎么去治理。我想首先讲一讲风险,然后跟大家讲一讲为什么从专业的角度我非常关注人工智能治理这个问题。
人工智能的风险来自于三个方面:
第一个就像刚才所讲的,它是一种网络风险的延伸和扩大。随着人工智能能力的出现,传统的数据和网络安全方面的风险会被放大。现在我们觉得管理数据安全已经很困难,出现了人工智能就会困难100倍。
第二类风险就是没有意识到的社会风险。比如说人工智能非常强大,而且可以以很多方式去使用,所以在短时间内颠覆现在社会结构的可能性是存在的。比如说有人提到未来人工智能可能会带来大规模失业。
第三类我觉得是最有意思的一个层面,也和曼纽尔刚才讲的有关,也就是所谓的生存的或者存在的风险。
我们当然以前也面临过存在的风险。当火车或者蒸汽机发明的时候就有人这样的担忧,近期大家也担忧过核威胁,这是非常合理的担忧。这一次又出现了一个新的强大的技术在改变世界,这一次颠覆性的力量可能比核生物的威胁更加严重。当然,所有的这些风险都需要很多的专家来解决,不仅是科学家,还可能需要政府、律师、经济学家来参与,可以说几乎涉及到每一个行业。现在我会讲一下作为一个计算机科学家,为什么我对这个问题感兴趣,出于两个原因:
第一个就是关心第一类和第三类的风险。第一点就是人工智能相当于网络风险的放大。曼纽尔和我都是专业研究密码学的,所以我觉得这是从这个角度来说是很有意思的一个话题。有一些人工智能的问题是无法解释的,是我们在数学上无法掌握的,这对我们来说是一个挑战,发展新的密码学就会比较困难。目前,人工智能出现之后,网络风险还处在非常早期的阶段,和四五十年前的情况非常相似,所以我们需要专家,需要有人关注这个问题。
第三类风险也是我很关注的,因为这和可计算性有关。从这个角度来说,人工智能的风险就体现在它的破坏力非常强大。我们从理论上了解到的情况是,更大的算力会给你更多的知识和智慧。我们可以在理论上进行类似的构建,但是我们没有人能预测到类似情况的发生。我们现在看到算力能解决很多以前不知道怎么解决的问题,这也是让人感到非常恐惧的。
作为一个计算机理论学家来说,我是这么看的,我也想要理解这个问题。简单来说,我们突然发现了一个方式创造一个新的物种,这个物种比我们要强大很多很多倍。那么我们是不是确定我们能跟它共存?如果我们无动于衷,那么我们就会被灭亡,这是毫无疑问的。这是计算机的本质或者是恶意行为者所带来的情况。
所以还有一个有意思的问题,或者是我看到的一个最有深度的问题就是,我们如何既控制好人工智能,又让它不对我们造成破坏,这样的权衡是非常困难的。我们预测不了有足够的算力之后人工智能会做什么。
沈向洋:如冯·诺依曼所说的,她也在做这个理论,她的工作和这个也非常相关。听了姚先生给我们描述的情况,我觉得特别开心。最早我们研究这算法科学的时候,有四个领域:人工智能、语言,还有其他的几个领域,现在四个领域都综合到人工智能这个领域里面去了。
您那个时候就一直在说人工智能研究,可见您是个有远见的人。拉吉老师,您是计算科学方面的教授,您还打造了第一个机器人的中心、第一个语言科技中心、第一个机器学习部。所有的这些领域都是您主动创出来的。那么接下来,您还会在卡内基梅隆大学推出什么样的新机构?在上海会推什么新方向?
拉吉·瑞迪:您要了解新的想法的话,首先要记住一点:每个技术既会产生新的机会,也会带来问题。比如汽车,如果100年前你就告诉人们,汽车的出现会导致每年因交通事故死去的人数高达100万人,人们就不会去使汽车。所以,我们一定不能把孩子和洗澡水一同扔出去。
虽然总是有很多的问题,但我们应该更积极主动的去做一些事。我觉得每个工程师都应该做得更好,但我们应该让他们做什么呢?怎么样能够让他们做得更棒呢?如何让他们效率更高呢?如何能让他们用一个小时就干完一天的活儿呢?这意味着你要做很多的投资和研究工作。
我希望不要仅想着新事物的负面影响。我觉得最大的机会,就是以后世界上的每一个人的生产效率都可以翻十倍。这意味着我们全球GDP将会从每年100万亿增长到每年1000万亿。但怎么样能实现呢?
沈向洋:最后问曼纽尔一个问题。曼纽尔老师,你是非常棒的老师。我们怎么样评估一个老师厉害不厉害的?主要取决于看学生厉不厉害,你作为图灵奖得主,你的学生拿到图灵奖的数量是最多的。你作为老师,怎么做到这么成功的?其他人怎么才能学到你的本事呢?
曼纽尔·布拉姆:我很幸运,我的学生都比我聪明,从他们身上我学到很多。从学生身上学到的东西可能比其他地方学到的东西更有意思。在一些少见的情况下,当有的学生用他的方式证明是我不理解时,我就会说我听不懂、不理解。有几次我发现可能是他的证明方式里面是有问题的,他是错的。
那么我再回到前面说的CTM。CTM特别有意思,我在那里组织一千万个处理器,都是基于他们所知道的这种意识模型。大家都觉得在最上面永远有一个总管理者,就像CEO。他本人不一定知道你懂什么,你的专业是什么,你的意识是什么,不一定了解你的所有专业技能。所以需要做一件事的时候,不知道挑谁来做。
据我所知,CTM的意识模型并没有中央决策者,而是让每一个人都参与,每个人都能够把最重要的信息放到最前台。这是很有意思的CTM的意识模型。
沈向洋:非常感谢您,曼纽尔先生。大家好好读一读你的论文,了解一下CTM的意识模型,非常有价值,那么最后请邀请姚先生跟我们再谈谈人工智能的未来。
图片图:姚期智
姚期智:我觉得我们现在处于一个非常激动人心的历史时刻,这个图灵测试的解决方案是我们最后的目标。就像一开始拉吉先生说的,千万不要轻视,不要过多地强调它的危险性,也不要过少地关注它的好处,这个我同意拉吉的观点。我也要借用曼纽尔先生在伯克利讲的那句话:我相信我们都做得到。
沈向洋:感谢,我再总结一下刚才曼纽尔的介绍,我们怎么教育好学生,我们都讲"名师出高徒",但布拉姆教授讲的是"高徒出名师"。