李彦宏、王坚给火爆的“AI春晚”泼了盆冷水

全文3043字,阅读约需9分钟,帮我划重点

划重点

012024世界人工智能大会(WAIC)在上海举行,企业家、创业者和学者们就人工智能的未来技术路线、治理和安全等问题展开讨论。

02专家指出,人工智能发展面临诸多风险,如数据泄露、滥用、隐私及版权相关的内容风险,以及恶意使用带来的伪造、虚假信息等使用风险。

03与此同时,行业担忧大模型应用的短期期待过高,避免掉入“超级应用陷阱”。

04AI助手被认为是大模型应用的最理想形态,但各家公司仍在探索如何将智能体融入各行业领域。

05专家认为,能源和算力可能是未来人工智能发展的最大障碍,但短期内尚无明显瓶颈。

由腾讯混元大模型提供技术支持

图片
腾讯科技 作者 郭晓静
中国工程院院士王坚在世界人工智能大会上提出一个引人深思的观点:“人工智能有着非常长的过去,但很短的历史。虽然AI概念已存在百年,但GPT等大模型的出现才真正开启了AI的新纪元。”
新纪元才刚刚开始,我们已经见识了这两年的AI速度。百模大战背后,是不断迭代的大模型能力;2024年,我们更是见识到了在模型能力基础之上的“应用加速度”--全能的AI助手、融合了端侧模型的智能手机、PC等终端、视频生成、音乐生成等各种多模态应用。
7月4日,被称为科技春晚的2024世界人工智能大会(WAIC)开幕。
当我们顶着上海的烈日,排着长长的队进入大会的展示区的时候,第一感觉就是“AI太火了”,比2023年还要火。
图片
图:观众排队进入WAIC展览区
然而,在整个大会的圆桌论坛,企业家、创业者和学者们,却在进行着更冷静和多元角度的讨论:未来的技术路线究竟如何、如何让人工智能向对人类有益的方向发展、大模型产业落地第一程究竟有哪些难解的问题。
图片
图:WAIC论坛区
大会的第一天,火爆的展区和冷静的论坛讨论,形成了这一年中国AI产业发展的镜像——狂飙的速度让整个产业充满激情,也有对速度背后的隐隐担忧。
01 人工智能统治人类:这个时代最时髦的担忧
今年的WAIC,人工智能的治理被放到了优先级最高的位置。
过去的两年,有一句笑谈“担心人工智能灭绝人类已经成为这个时代最时髦的担忧”。
虽然这个在科幻电影中常见的桥段还不太可能在现实中发生,但是,数据泄露、滥用、隐私及版权相关的内容风险;其次是恶意使用带来伪造、虚假信息等相关的使用风险;偏见歧视等伦理相关问题;人工智能是否会对就业结构等社会系统性问题带来挑战。
“这些由AI带来的风险已初露端倪,但更多的是潜在风险,防范这些风险需要各界共同努力,需要科学社区做出更多贡献。”上海人工智能实验室主任、首席科学家周伯文在人工智能大会的演讲中说。
形成一个“人工智能发展与治理”并重的体系成为全球共识,但是人工智能的国际治理也面临着几方面的挑战,
清华大学苏世民书院院长、清华大学人工智能国际治理研究院院长薛澜指出:一个是所谓的“节奏问题”,就是技术发展的步调非常快,但我们治理体制的变革步伐比较慢。第二是发达国家和发展中国家的技术鸿沟目前还是难以弥合。第三我们有一些当前的重大问题是全球治理的问题,但这些问题特别复杂,就像一个“机制复合体”。
怎样去进一步打造人工智能治理框架呢?
基于中国经验,薛澜提出“四个统筹”:1. 统筹发展与安全;2. 统筹伦理、立法、标准、测评等不同类型的核心治理工具;3. 统筹国内治理与国际。
周伯文基于人工智能治理提出一个技术主张:探索人工智能45°平衡律(AI-45° Law)。即从长期的角度来看,需要找到AI安全优先,但又能保证AI性能长期发展的技术体系。
周伯文在发言中提到,上海AI实验室最近正在探索一条以因果为核心的路径,取名为“可信AGI‘因果之梯’”。他表示,要沿着可信AGI的“因果之梯”拾级而上:泛对齐、可干预、能反思。目前,AI安全和性能技术发展主要停留第一阶段,部分在尝试第二阶段,但要真正实现AI的安全与性能平衡,我们必须完善第二阶段并勇于攀登第三阶段。
人工智能给人类带来的挑战已经不再仅存于科幻电影中,通过技术、政策等多种方式积极探索如何让AI向对人类有益的方向发展,是本届人工智能大会最重要的命题,也将是很长一段时间,整个人类社会面临的最重要的命题之一。
02 警惕“超级应用陷阱”,避免短期期待过高
除了人工智能的安全治理问题,行业的另外一个争论焦点就是“究竟是太快,还是太空”。
悖论在于,虽然大模型的技术发展太快,但是还是空中楼阁,大模型并没有找到真正的PMF。
行业的Super APP究竟什么时候才能出现?中国大模型什么时候才能等到自己的ChatGPT时刻?这是外界给到大模型公司的难解问题。
对此,百度创始人、董事长兼首席执行官李彦宏在2024世界人工智能大会暨人工智能全球治理高级别会议产业发展主论坛上表示,要跳出移动时代的思维逻辑,避免掉入“超级应用陷阱”,不是只有10亿DAU的应用才叫成功。“AI时代,‘超级能干’的应用比只看DAU的‘超级应用’更重要。”
智谱AI CEO张鹏也有相似的观点,在大会现场与腾讯科技的交流中,他提到“大模型的普及速度已经够快了,大家不要短期期望太高。也不要对它的发展速度过于苛刻了。”
“智谱面向B端服务的开放平台bigmodel.cn,这个平台到今天已经有超过40万注册用户。我们做过一些分析统计,有特别大的集团型的公司,也有小到个人开发团队,但是调用的消耗量其实真的没有特别明显的规律,并不是说某一类的用户特别大,比如大集团调的特别多,个人用户调的少,而是动态变化率非常快。这说明了第一,企业端已经有相当的规模覆盖;第二行业还在发展初期,因为剧烈的变化代表着不稳定,还在试探,它是一个在快速增长曲线当中的某一个点,而不是碰到天花板了。
03 AI助手,大模型最理想的应用形态?
期待超过10亿DAU的超级应用如果是移动互联网时代留下的思维陷阱,那么,大模型时代最理想的应用形态究竟应该是什么呢?很多科技公司不约而同地给出了相同的答案“AI助手”。
在此次WAIC的展会上,AI助手似乎已经成为了每家大模型公司的“标配”,有着或个性或可爱的名字。
AI助手,真的就是大模型应用的最理想形态吗?
李彦宏将智能体看做未来庞大生态的有机组成体,而搜索将成为智能体分发的最大入口。随着基础模型的日益强大,开发应用也越来越简单,其中,最简单的就是智能体,只要用“人话”把工作流说清楚,再配以专有知识库,即可做出一个很有价值的智能体,“比互联网时代制作一个网页还简单”。
他认为,医疗、教育、金融、制造、交通、农业等各行业领域,未来都会依据自己的场景和特有经验、规则、数据等等,做出各种智能体,将会出现数百万量级的智能体,形成庞大生态。搜索是智能体分发的最大入口。”
即使大模型技术的发展速度很快,但是幻觉、专业知识缺乏等问题,让大模型在严谨产业应用中,还是遇到了很大困难。
蚂蚁集团董事长兼CEO井贤栋表示,专业智能体能破解通用大模型在严谨产业应用的关键难题。他例举称,通用大模型落地严谨产业面临着三个“能力短板”:领域知识相对缺乏、复杂决策难以胜任,以及对话交互不等于有效协同。井贤栋介绍,为了破解这些难题,蚂蚁选择了构建专业智能体生态的路径,“从我们的实践来看,专业智能体是大模型落地严谨产业的有效路径。”
在大会现场,我们看到了全能智能体——能够写作、读书、绘画等;也看到了有专业知识的智能体,比如医疗智能体;还有基于特殊任务定制的智能体,比如辅助办公。
五花八门的智能体,是今年世界人工智能大会最显眼的新鲜点,不知道未来一年,行业对于AI应用形态的思考,是否会有新的答案。
04 能源、数据,谁才是AI下一步的最大障碍?
Scaling Law是不是未来人工智能发展的最优路径?是否还有别的更好的技术路线。王坚在大会现场表示:“这是一个很困难的问题,一直可以讨论一百年。但是这个困惑,既不是今天有,未来也会有,更重要的是过去也有。”
大模型路线的成功不可否认有它的偶然性,但是毫无疑问,它确实开启了AI的新纪元。
但是,这项技术的背后,瓶颈也一直成为行业热议的话题。数据、算法、算力,到底什么才会是未来发展的瓶颈?
亚马逊前首席科学家安德雷斯·韦思岸认为是算力,也可以说是能源。他举例说:“亚马逊在数据中心边上建了核电站,就是能源不够了,大家想想是不是很疯狂?就说明计算的算力特别需要能源,需要核能给AI供能,多么无法想象!”
王坚院士有不同的看法,他认为在三十年之内,我们都还无法看到大模型发展的瓶颈,因为目前的现实世界存在两个不等式。
他说,“第一个不等式,今天跟已有的基础模型相比,我们的应用还做的不够好。第二个不等式,以现有的算力能力,我们的基础模型做的不够好。”
在这两个不等式下,王坚认为“大家今天去担心这件事情,至少不是做人工智能要担心的,是做基础设施要担心的。”
猎豹移动董事长傅盛联想起了1980年全世界对于石油枯竭的担忧。“但新能源会出来,新的算力形式会出来。”王坚补充道。