李彦宏WAIC演讲实录:AI跑分刷榜乱象不止 开源不适合所有应用场景

全文3023字,阅读约需9分钟,帮我划重点

划重点

01百度创始人李彦宏在2024年世界人工智能大会上对AI行业中的问题做了评价,认为当前业界过分关注模型本身,而忽视了AI真正的价值所在——应用。

02他强调,无论是开源还是闭源模型,如果没有落地到实际应用中,都是"一文不值"的。

03李彦宏预测,未来AI落地应用的主要形式将是智能体,它将作为敲门砖逐步渗透进涉各个行业领域。

04对于AI可能对就业造成的冲击,李彦宏认为人工智能还是作为副驾驶来辅助,而非取代人类的。

05他认为,这次AI浪潮中,人工智能更多地在扮演"副驾驶"的角色,同时也会创造新的工作机会。

以上内容由腾讯混元大模型生成,仅供参考

腾讯科技讯 7月4日,在2024年世界人工智能大会上,百度创始人、董事长兼CEO李彦宏对AI行业中的问题做了评价,并给出了他认为后续AI落地的方向。
从去年ChatGPT发布开始,国内多家科技巨头就开始相继发布新一代大语言模型。在这场被媒体称为"百模大战"的激烈角逐中,模型的参数规模、训练数据量和推理能力成为了热议的焦点。各家模型纷纷宣布评测分数超越GPT-4,然而在AI的落地方面却仍然缺乏成熟的解决方案。
李彦宏认为,这种只有闭源模型才能在商业应用取得优势。而当前业界过分关注模型本身,而忽视了AI真正的价值所在——应用。他强调,无论是开源还是闭源模型,如果没有落地到实际应用中,都是"一文不值"的。他认为,未来AI落地应用的主要形式将是智能体,它将作为敲门砖逐步渗透进涉各个行业领域。
对于AI可能对就业造成的冲击,李彦宏认为这次AI浪潮中,人工智能还是作为副驾驶来辅助,而非取代人类的。虽然确实会有部分岗位消失,但也会有新的岗位涌现出来。
图片
以下为李彦宏在2024人工智能大会上的演讲全文:
非常高兴来到上海参加世界人工智能大会。我是这个会议的常客,经常来参加。去年因为出国没能来,所以我上一次参加世界人工智能大会是在2022年。我记得那次大会的主题是元宇宙,主办方也希望我讲一讲元宇宙。但我说,我还是讲人工智能吧。
我当时讲的主题是人工智能生成内容(AI Generated Content)。我认为人工智能的技术发展路线发生了方向性的改变,从过去的辨识式人工智能转向了未来的生成式人工智能。这个观点是在2022年夏天提出的,而5个月后,大家都知道ChatGPT发布了。
之后发生的事情大家更清楚了。短短两年的时间,恍若隔世,整个世界都变了。人工智能可以说颠覆了绝大多数人的认知。2023年,国内出现了"百模大战",造成了社会资源的巨大浪费,尤其是算力的浪费。但这也使得我们建立了追赶世界上最先进基础模型的能力。
去年10月,我宣布文心4.0发布时说,文心4.0的能力与GPT-4相比毫不逊色。当时很多同行还不以为然。但今天大家可以看到,国内已经有多款闭源模型声称他们已经追平或超越了GPT-4的水平。注意,我说的是闭源的大模型,不是开源大模型。
这也是今年以来争议比较多的一个话题。有些外行甚至混淆了模型开源和代码开源这两个概念。模型开源,你拿到的是一大堆参数。你还是要去做监督微调(Supervised Fine-Tuning,SFT),还是要去做安全对齐。你不知道这些参数是怎么来的,无法做到"众人拾柴火焰高"。即使你拿到对应的原代码,你也不知道它用了多少数据、用了什么比例的数据去训练这些参数。所以拿到这些东西并不能让你站在巨人的肩膀上去迭代和开发。
因此,同样参数规模之下,闭源模型的能力就比开源模型要更好。如果开源模型想要在能力上追平闭源模型,那么它就需要有更大的参数规模。这就意味着推理成本会更高,反应速度会更慢。很多人拿开源模型来改款,以为这样可以更好地服务自己的个性化应用。殊不知这样你就创造了一个"孤本"的模型,既无法从基础模型的持续升级中获益,也没办法跟别人去共享算力。
当然,我也承认开源模型在某些场景下是有价值的,比如一些学术研究或教学领域。大家想要研究大模型的工作机制,形成理论,那么这个时候开源模型可能是有价值的。因为大家可能也经常听到,我们觉得大模型能力很强,但不知道为什么能力强,因为背后没有理论来支持它。所以研究这个问题用开源模型我觉得没问题。
但是在大多数的应用场景中,开源模型并不合适。当你处在一个激烈竞争的市场环境中时,你需要使自己业务的效率比同行更高,成本比同行更低。这个时候,商业化的闭源模型是最能打的。
当然,这些都不是最重要的。没有应用,光有一个基础模型,不管是开源还是闭源,都是一文不值。所以我从去年下半年开始就在说,大家不要再纠结于模型了,要去关注应用。但是我看到我们的媒体仍然把主要的关注点放在了基础模型上,一天到晚到处去跑分刷榜。
今天这个震撼发布,明天那个史诗级更新,但是我要问:应用在哪里?谁从中获益了?其实,应用离我们并不遥远。基于基础模型的应用在各行各业、各个领域都已经开始了逐步的渗透。
两个多月前,我们宣布文心大模型的日调用量超过了2亿。最近我们又说文心大模型的日调用量超过了5亿。仅仅两个多月的时间,调用量发生了这么大的变化。这背后代表了真实的需求,是有人在用,是有人真的从大模型中获益了,得到了价值。
比如在快递领域,让大模型帮助处理订单,做到了"一张图一句话即快递",不再需要其他繁琐流程。处理时间从三分多钟缩短到19秒,而且90%以上的售后问题也都是由大模型来解决,效率提升非常明显。
再比如在小说创作领域,一开始用开源模型做出过一些效果。后来改用文心的轻量级模型,经过10轮、上万组数据的监督微调和后训练,结果有了明显的提升。最近又转到文心4.0的版本,仅用了数百条数据,4.0就在情节和逻辑方面展现出了非凡的优势。生成的内容无论是可用率还是优质率,都大大超过了文心的轻量级模型,网文作者们如虎添翼。
在更通用的领域,比如说代码生成,文心快码这样的软件在各个领域也在逐步渗透。百度内部有30%左右的代码已经是用人工智能生成的,代码的采用率超过了44%。
不过,我们要避免掉入超级应用陷阱,觉得一定要出一个10亿的应用程序才叫成功。我认为这是移动互联网时代的思维,在人工智能时代,规律很可能不是这样。超级能干的应用比只看下载量的超级应用可能要更重要。只要对产业、对应用场景能产生大的增益,整体的价值就比移动互联网要大得多。
随着基础模型的日益强大,开发应用也越来越简单了。最简单的就是智能体,这也是我们最看好的人工智能应用的发展方向。制作一个好的智能体通常并不需要编码,只要用人话把智能体的工作流说清楚,再配上专有的知识库,一般就是一个很有价值的智能体了。这比互联网时代制作一个网页还要简单。
未来在医疗、金融、教育、制造、交通、农业等领域,都会依据自己的场景、特有的经验、规则、数据等做出各种各样的智能体。将来会有数以百万计的智能体出现,形成庞大的智能体生态。而搜索是智能体分发的最大入口。
刚刚过去的高考季,很多大模型公司热衷于去写高考作文,看看用人工智能写一个作文能得多少分。其实这个使用价值不大,人家不会允许你带一个大模型进去参加高考。但真正的需求是大量的考生在考完之后要报志愿,要选择学校、选择专业。他们对一所大学、一个专业会有各种各样的问题,而每一个考生的情况又是不一样的。这个时候就需要有一个智能体来回答每一个考生特有的问题。在高峰时期,百度的高考智能体每天回答的问题超过2000万个,而我们总共只有1000万的考生。
人工智能正在以前所未有的速度向各行各业渗透。很多人担心,如果我们日常的工作都让人工智能去做了,人是不是就没有工作机会了?这种担心不是没有道理,但是过去这段时间,我听到的担心、抱怨很多,听到的建设性意见比较少。很少有人去致力于发掘生成式人工智能带来的新的工作机会。
我觉得,一方面这次浪潮中,人工智能更多地在扮演"副驾驶"的角色。人工智能只是辅助人工作而不是替代人工作,它让人的工作效率更高、质量更好。另一方面,我们也看到有一些全新的工作机会开始出现。比如数据标注师,过去几年我们帮助全国20多个城市落地了数据标注中心,提供了大量的新就业岗位。
再比如提示词工程师,以后不用编程了,但是做好一个智能体还需要把工作流说清楚。这里面要有很强的逻辑性,要用提示词对模型进行调教。随着智能体的大量涌现,这种工作需求也会飙升。这些工作机会通常门槛并不高,你做得一般也能够养家糊口,做得好的话上限可以年薪百万。
自人类文明诞生以来,永不停止的创新就是刻在我们DNA中的。从石器时代的手斧到移动时代的手机,再到人工智能时代的大模型,人类不断创造各种工具来改善生活、提高生产力。但是它们永远只是工具,只有在被人类所使用的时候才有价值。我们坚定地相信,人工智能不是人类的竞争对手。我们构建和应用人工智能技术是为了满足人的需求,增强人的能力,让人类的生活更美好。
谢谢大家。