编辑/易瑾
“在过去的22个月,AI的发展速度超过历史的任何时期,但现在处于AGI变革的早期阶段。”阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭在2024云栖大会上表示。
两年来,从ChatGPT横空面世到国内外“百模大战”,再到大模型落地各行各业、AI应用如雨后春笋诞生。肉眼可见,这股浪潮仍在持续。吴泳铭提到,在新增算力市场上,超过50%的新需求由AI驱动产生,AI算力需求已经占据主流地位,这一趋势还会持续扩大。
过去一年,阿里云投资新建了大量的AI算力,但还是远远不能满足客户的旺盛需求。在AI技术研发和基础设施建设上,阿里云CTO周靖人在大会现场全面展示了全新升级后的AI Infra系列产品及能力。
据介绍,通过全栈优化,阿里云打造出一套稳定和高效的AI基础设施,连续训练有效时长大于99%,模型算力利用率提升20%以上。
与此同时,通义大模型迎来年度重大发布,基础模型升级,性能媲美GPT-4o,发布开源模型Qwen2.5系列,上架语言、音频、视觉等100多款全模态模型,并宣布通义千问三款主力模型再次大幅降价,最高降幅85%。
针对持续降价,周靖人在接受采访时表示每一次降价都是一个非常严肃的过程,会从整个产业的发展,开发者、企业用户的一些反馈等方面进行权衡。“降价主要是通过技术优化实现的,我们希望把技术红利给到企业用户和开发者,更有效的推动整个AI行业的发展。”
开源、降价持续进行中
在技术迅速发展的过程中,大模型开源和闭源一直是业内争辩的焦点之一。开源闭源两条路线并进的阿里云,从2023年8月起密集开源模型,从Qwen到Qwen1.5再到Qwen2系列,9月19日又宣布开源Qwen2.5系列,实现了全尺寸、全模态开源。
据周靖人介绍,Qwen2.5全系列模型都在18T tokens数据上进行预训练,相比Qwen2,整体性能提升18%以上,拥有更多的知识、更强的编程和数学能力。Qwen2.5全系列涵盖多个尺寸的大语言模型、多模态模型、数学模型和代码模型,每个尺寸都有基础版本、指令跟随版本、量化版本,总计上架100多个模型。
在国内,阿里云并非首家开源模型的厂商,但是通义在全球开源大模型领域后来居上,逐步赶超美国最强开源模型Llama,并多次登顶Hugging Face全球大模型榜单;生态上,通义与海内外的开源社区、生态伙伴、开发者共建生态网络,HuggingFace数据显示,截至2024年9月中旬,通义千问开源模型下载量突破4000万,Qwen系列衍生模型总数超过5万个,成为仅次于Llama的世界级模型群。
同时,周靖人宣布通义旗舰模型Qwen-Max全方位升级,性能接近GPT-4o。目前,通义官网和通义APP的后台模型均已切换为Qwen-Max,继续免费为所有用户提供服务,用户也可通过阿里云百炼平台调用Qwen-Max的API。
近一年来,阿里云试图把大模型价格打下去的决心非常明显,并且一直在行动。继5月首次大幅降价后,9月19日阿里云百炼平台上的三款通义千问主力模型再次降价。Qwen-Turbo价格直降85%,低至百万tokens 0.3元,Qwen-Plus和Qwen-Max分别再降价80%和50%。
对于持续的降价,周靖人表示主要是通过技术优化实现的,基础设施的提升、模型本身结构化的提升都能让模型成本进一步下降。他指出降价的策略和开源的策略其实是一脉相承的,就是希望把技术红利让利给企业用户和开发者。
模型的运用包括应用的创新,目前仍处于早期阶段,周靖人说如果把模型价格非常昂贵,大量的开发者没有办法去有效地、批量化或者大规模使用,在一定程度上也会影响大家的重视。“我们希望的是把模型的能力,让大家用得起,激发更多的产业级的创新”。
在阿里云副总裁张启看来,不能用“价格战”的思维去理解大模型推理价格的下降,也不能简单的去算ROI,因为作为基础设施的东西,只有把资费降到足够的低,才有可能去谈未来应用的爆发。
坚定全力投入大基建
不同于传统IT时代,AI时代对基础设施的性能、效率要求更高,CPU主导的计算体系已快速向GPU主导的AI计算体系转移。阿里云正以AI为中心,全面重构底层硬件、计算、存储、网络、数据库、大数据,并与AI场景有机适配、融合,加速模型的开发和应用,打造一个AI时代的超强AI基建。
9月19日,在大会现场,周靖人展示了AI驱动的阿里云全系列产品家族升级。据他介绍,最新上线的磐久AI服务器,支持单机16卡、显存1.5T,并提供AI算法预测GPU故障,准确率达92%。阿里云ACS首次推出GPU容器算力,通过拓扑感知调度,实现计算亲和度和性能的提升;为AI设计的高性能网络架构HPN7.0,可稳定连接超过10万个GPU,模型端到端训练性能提升10%以上;阿里云CPFS文件存储,数据吞吐20TB/s,为AI智算提供指数级扩展存储能力;人工智能平台PAI,已实现万卡级别的训练推理一体化弹性调度,AI算力有效利用率超90%。
过去两年,模型的尺寸已增长数千倍,但模型的算力成本正在持续下降,企业使用模型的成本也越来越低。周靖人强调:“这是AI基础设施全面革新带来的技术红利,我们会持续投入先进AI基础设施的建设,加速大模型走进千行百业。”
小鹏汽车董事长CEO何小鹏在云栖大会首日,驾驶P7+亮相大会现场,这款车搭载了业内领先的端到端大模型。过去2年,小鹏汽车与阿里云共建的AI算力规模提升超4倍。何小鹏表示,将继续深化与阿里云的AI算力合作,加速推动端到端大模型拓展自动驾驶上限,提升下限。
为提升智驾大模型训练效率,小鹏汽车早在2022年就携手阿里云在乌兰察布建成中国最大的自动驾驶智算中心,将自动驾驶模型训练效率提升了超600倍。而近两年内,由于大模型技术快速发展,阿里云已将此智算中心的算力储备扩张超4倍至2.51Eflops,为小鹏汽车提供稳定高效的算力底座,支撑了大模型快速迭代,实现智驾“全国都好用”。
吴泳铭在主论坛的演讲中提到阿里云正在以前所未有的强度投入AI技术研发和基础设施建设。在AI上坚定的投入,也让阿里云得到了实在的回报,今年第二季度营收增长6%至265.49亿元,其中AI相关产品收入实现三位数增长,公共云业务实现两位数增长。
近期,关于大模型泡沫的言论此起彼伏,而阿里云是AI长期乐观派,正如吴泳铭所说,AI想象力不止于手机屏幕的超级APP,最大的想象力是在通过渗透数字世界、接管数字世界,并改变物理世界。
当物理世界的大部分事物都具备AI能力,形成下一代具备AI能力的新产品,并与云端AI驱动的数字世界产生协同效应,阿里云的想象空间更是无限。