腾讯云,你变了!

图片

假设你是一位风投合伙人,刚刚投资了一家AI新锐公司,目标是要打造一个千亿参数量级的前沿AI语言模型,成为下一个ChatGPT。你满怀期待,准备赢在风口。

然而,几个月后,现实让你失望至极——模型训练遥遥无期,耗费巨资好不容易抢购的GPU卡时不时故障,训练时而中断;存储、网络总是跟不上训练的要求,效率不高。

这种情况并非个例。大模型潜力巨大,对智算能力的需求激增。但一个大规模的高性能智算集群,除了要GPU打底之外,网络、存储、甚至调度、加速引擎等软件能力,也成为了很多企业拥抱大模型的拦路虎。

图片

为了解决这个问题,各大云厂商卯足了干劲,纷纷升级其算力基础设施。近日,腾讯云在2024年的数字生态大会上带来了他们的“杀手锏”——全新的腾讯云智算品牌。这一套高性能计算基础设施,正是为解决大模型的“智算饥渴”而生。

那么,这套产品能否真正解决大模型企业的算力瓶颈?能否让困顿中的AI企业找到出路?我们将在下文中逐一揭晓答案。

大模型训练与商用,到底对云计算提出了哪些“极限要求”?

当我们谈论大模型时,表面上看是算法、参数、数据的较量,但背后真正的比拼是基础设施的强弱。随着AI模型的规模越来越大,从百亿到千亿甚至万亿级别,它们对云计算基础设施提出了前所未有的苛刻要求。大模型不再是简单的训练任务,而是一个庞然大物,吞噬着算力、存储、网络资源,并要求高效的集群调度。

让我们从四个维度——算力、存储、网络、计算集群操作系统——来深度剖析,大模型对云计算基础设施的“极限要求”。

算力需求:大模型的“巨型胃口”

想象一下,你正在试图训练一头“巨兽”,它名为大模型。这头巨兽饥饿如狂,需要无数的算力“粮食”来填饱它的胃。如今,大模型的参数量级动辄千亿、甚至万亿,而训练这样的模型就像是在挑战人类的极限。它对算力的需求,已经不再是普通AI应用可以比拟的。为了训练这种“巨兽”,往往需要数千张GPU卡同时高速运转,不是几天,而是连续几周甚至几个月。

图片

这并不是一锤子买卖。你可能以为,一旦大模型完成训练,便可以高枕无忧。然而,现实却是,模型的微调、优化和迭代,几乎是对算力的反复“榨取”。就像巨兽从来不满足于一顿饱餐,它需要不断地吃,才能保持战斗力。

问题来了:现有的云计算平台看似可以提供大量算力,但这些算力资源往往“哑火”。你买下了一大片GPU,但在分布式的训练任务中,很多资源却闲置在那里,无法协同高效运作。这种算力调度效率低下,导致训练时间延长、成本飙升,仿佛在“开着豪车排队”,算力的潜力被大大浪费。

存储需求:海量数据吞吐考验“存储大脑”

如果说算力是大模型的“胃口”,那么存储就是它的“消化系统”。但问题是,这个系统得足够强大,才能吞吐这些巨量的数据。要知道,大模型训练不仅是“喂养”大量的算力,背后还需要存储系统能够以飞快的速度处理和传输海量数据。

你需要的是一个能够应对PB级别数据存储的系统,这个系统不仅要“装得下”,还必须保证每一份数据都能被迅速读写。当多个节点同时进行训练时,数据传输和存取的瓶颈将直接影响训练进度——存储系统如果不给力,就像是把巨兽关在笼子里,它动弹不得,模型也难以发挥出应有的力量。

然而,现有的云存储系统往往在面对这种规模的需求时“失灵”。当数据集规模扩展到千亿级,成千上万的小文件需要快速处理,传统的存储系统一下子就会卡壳,效率严重下滑。就像你在一家快餐店点了上千份餐,但厨房只有一口锅,无法并行处理这么多订单,训练速度因此大大减慢,最后等待的时间远超预期。

图片

网络需求:数据传输的“隐形绊脚石”

如果存储是消化系统,那么网络就是大模型的“血液循环”。模型的每一个参数、每一块数据,都需要快速、高效地在各个节点之间流转,稍有堵塞,整个系统就会失速。

在大模型的分布式训练中,各个计算节点之间需要频繁地同步参数,进行数据交换,尤其是梯度信息的传输。这个过程极为关键,网络性能决定了训练的整体速度。如果你指望网络像普通任务那样完成工作,那可能就大错特错了。带宽不足、延迟过高,都会成为模型训练的“隐形绊脚石”。当成千上万个节点等待数据同步时,每一点延迟都会被成倍放大,训练任务随之拖延数倍。你希望看到的不是训练进展,而是进度条的停滞不前。

遗憾的是,大多数云计算平台的网络架构并不是为大模型设计的。它们更多考虑的是一般企业的计算需求,对高频次、大规模的数据交换准备不足。数据堵塞和延迟经常发生,模型训练的流畅性大打折扣,就像高速公路上突然发生了连环追尾,整个交通系统瘫痪。

计算集群操作系统:AI训练的“大脑指挥官”

最后,我们不能忽略大模型的“总指挥”——计算集群操作系统。试想一个庞大的军队在作战,能否胜利不仅取决于士兵的数量和装备,更在于指挥官的智慧。集群调度系统就是大模型训练中的“指挥官”,它负责让所有的算力、存储和网络资源协同工作,确保每一块GPU卡、每一个节点都能发挥出最大的效能。

在大模型的训练过程中,计算资源的调度和分配至关重要。一个好的集群操作系统,能够智能地根据不同任务的需求动态调整资源分配,优化模型训练的每一个环节。问题在于,现有的云计算平台大多使用传统的集群调度系统,智能化程度不足,难以灵活应对大模型的复杂需求。结果就是,有些节点资源闲置无用,而另一些则超负荷运转,导致整个集群的效率大幅下降。

正如指挥官如果没有准确的情报和灵活的战略,战斗将是一场混乱的惨败。在大模型的战场上,如果调度系统无法高效统筹,那么再强大的算力和再先进的存储也无济于事,整个训练任务依然会变成一场资源浪费的“灾难”。

图片

腾讯云智算,一个典型样本

腾讯云智算的诞生,正是为了解决这些痛点。它不是简单的“算力升级”,而是为大模型训练打造的一台超级高效的智能“算力引擎”,彻底改变了大模型训练的游戏规则。

想象一台由无数精密齿轮构成的机器,每个齿轮都配合得天衣无缝,动力十足。这就是腾讯云智算的工作原理。它通过整合高性能计算、存储、网络、调度等多个核心模块,形成了一套集成化的智能计算平台。每个部分都像被注入了AI的“灵魂”,它们之间的协同作用让整个系统运转得如同流畅的“引擎”。

图片

腾讯云 智算涵盖高性能计算HCC、高性能网络星脉、高性能云存储、加速框架、容器、向量数据库、智算套件等腾讯云优势产品。作为集算存网一体的高性能智算底座,能够对外输出性能领先、多芯兼容、灵活部署的智算产品能力,每一部分都为解决大模型训练中的“卡脖子”问题而生,它们不仅是单独的强者,更是通过深度配合,让整个计算过程畅通无阻。

以腾讯云高性能计算集群(HCC)为例,作为以公有云形态对外提供的智算服务,这个集群堪称“超级引擎”,HCC集结了腾讯云软硬一体的技术能力,底层采用自研星星海服务器,基于自研星脉网络可以提供业界最高的3.2T超高互联带宽,算力性能较前代提升高达3倍。万亿参数的混元NLP大模型训练,最快4天就能训练完成。

更让人放心的是,HCC不仅仅是“速度快”,它还极为稳定。训练中途崩溃?故障卡数?这些在HCC上都不是问题。它的单日故障卡数仅为0.16张。换句话说,HCC让大模型的训练像跑在高速公路上的超级跑车,不仅快,还极其可靠。

图片

星脉网络2.0就是数据传输的“加速器”。成千上万的GPU卡要进行同步计算,如果没有足够强的带宽和低延迟通信,数据堵塞就像交通拥堵一样,训练进度将被无限拖延。

腾讯云自研的星脉网络通过51.2T的超高带宽和400G硅光模块,直接把数据传输的延迟减少了40%。这就像给每一辆数据“汽车”装上了火箭推进器,数据在各个节点间以极高的效率飞奔。更妙的是,腾讯云自研的通信协议TiTa和拥塞控制算法,使得这些数据流在最复杂的计算任务下,也能稳定高效地完成。

当然,大模型训练不仅需要强大的算力和高速网络,存储系统也必须跟得上节奏。CFS Turbo存储系统堪称存储界的“超级跑车”,它的并行文件存储技术让数据读写速度如闪电般快速,单客户端可以达到10GiB/s的读取速度!每秒吞吐能力更是可以达到TiB级别。CFS Turbo在大模型的Checkpoint写入场景中,将传统的10分钟缩短到了10秒。想在大模型训练的关键时刻,如果存储系统不给力,像是让一个冲刺中的运动员突然停下来喘口气,而CFS Turbo就是那个保证你一路狂奔到底的“能量加速器”。

腾讯云基于 IaaS 资源推出了TACO Train 训练加速引擎,为用户提供开箱即用的 AI 训练套件,提供自底向上的网络通信、分布式策略及训练框架等多层级的优化,除了引入业界一些成熟的分布式训练加速技术,例如多级通信、多流通信、梯度融合、压缩通信外,TACO Train 推出了自定义的用户态协议栈 HARP,有效解决普通网络环境下的多机网络通信问题。

腾讯云的向量数据库也是大模型“超能力”的重要隐形推手。随着大模型规模的增加,数据处理和知识检索变得尤为关键。腾讯云自研的向量数据库为大模型提供了全生命周期的AI化支持,能够在训练和推理阶段加速数据处理。在搜索和推荐场景中,向量数据库通过结合传统关键字检索和向量相似性检索,极大提升了数据检索的精度和效率。

特别是在面对复杂的多模态任务时,向量数据库凭借其千亿级的向量规模支持,轻松应对大模型的知识库补充需求。比起传统方案,它能够将检索效率提升10倍,同时在500万并发的场景下保持高度稳定。这个“幕后英雄”,正在悄然为大模型训练提供无与伦比的“数据助力”。

腾讯云智算的真正“杀手锏”不只是单个模块的强大,而是它们之间的协同效应。算力、存储和网络,这三者之间像是AI交响乐的不同乐器,只有当它们完美配合时,才会奏出真正的“科技乐章”。

例如,当CFS Turbo存储系统快速读取数据后,数据立即通过星脉网络的低延迟通道传输到HCC集群中。星脉网络的高速数据流动,确保每个计算节点都能及时获得最新的训练数据,而HCC则以惊人的算力进行计算处理。整个过程像是一场紧凑而流畅的“数据舞蹈”,整个系统始终保持高效运转,不浪费一分算力,不浪费一秒时间。

除了公有云形态的输出外,腾讯云打造智算套件,能够一比一在私有云场景下输出腾讯云高性能计算集群构建软件模块、智能高性能网络IHN、高并发文件存储系统TurboFS、算力加速框架Taco以及GPU算力共享技术等核心能力,与腾讯云专有云平台TCE结合,可以支撑企业基于自有硬件搭建高性能的专有智算云,解决客户数据安全、数据隐私、自有硬件等诉求。腾讯云智算套件从操作系统到物理硬件全面支持一云多芯,全面满足安全合规要求。

大模型时代来临,云计算市场正迎来新一轮大洗牌

随着AI大模型时代的到来,云计算市场正经历一场深刻的变革。与传统云计算不同,大模型对算力的需求不再局限于CPU,而是更依赖GPU、TPU等专为AI设计的加速器,这一转变正逐步重塑整个行业的竞争格局。

在传统云计算中,算力的核心是CPU。这一架构下,云计算提供商的竞争更多是基于对CPU计算资源的优化和规模化提供。但AI大模型的出现,打破了这一固有模式。大模型的训练需要处理巨量的计算任务,特别是矩阵运算和并行计算,对GPU、TPU等专用AI加速器的需求远超CPU。大模型的爆发,让“算力即服务(Compute-as-a-Service)”概念得到了彻底重塑——现在的算力竞争,已经从“通用算力”转向了“AI算力”。

图片

算力变革的核心在于,AI算力的组织和交付远比传统CPU算力复杂。AI大模型训练动辄需要数万张GPU并行工作,这对算力调度、资源分配的精准性要求极高,单纯依靠CPU的架构已经无法满足这种需求。计算资源的竞争变得更加多元化、复杂化:GPU、TPU、FPGA、HBM(高带宽存储器)等成为新的战场,构建专为AI优化的硬件和软件体系,将成为云计算厂商未来的核心任务。

因此,未来的竞争将不仅仅是提供更大规模的算力,而是如何更快、更智能地组织这些AI算力资源,并以更低的成本交付给企业。云计算厂商必须具备弹性扩展、跨异构架构的能力,能够为不同AI场景灵活调配资源,才能在这一轮竞争中胜出。谁能率先搭建出高效的AI算力平台,谁就能抢占未来市场的制高点。

全球云计算市场曾经是一场以规模和通用计算资源为中心的竞赛,AWS、微软Azure、谷歌云、阿里云、腾讯云、华为云、百度云等巨头凭借其庞大的基础设施和技术能力,在通用计算资源的供应上建立了领先优势。然而,AI大模型时代正迫使这些全球云巨头重新审视自己的战略布局。以往稳固的市场格局,正在随着AI算力的崛起而发生动摇。

AI大模型对GPU、TPU等AI专用硬件的需求,正在迅速拉开不同厂商在技术能力上的差距。全球云巨头们,如亚马逊AWS、微软Azure、谷歌云,正在加速布局AI计算资源,推出一系列专为AI设计的算力服务。AWS的“Trainium”、谷歌的TPU、微软的ND系列虚拟机,以及腾讯云此次发布的腾讯云智算Al infra ,都是在这场“AI算力战役”中的重要棋子。

图片

AI算力的崛起意味着云计算基础设施需要重新架构,传统的以CPU为核心的云计算模式已经不再适用,未来的云计算市场将被那些能够提供灵活、高效、低成本AI算力服务的厂商主导。而这一过程,也将带来市场格局的剧烈洗牌。

那些能够快速响应AI需求、提供高效AI算力基础设施的厂商,将成为新的行业领军者。与此同时,那些无法及时转型、缺乏AI算力布局的云计算企业,可能会发现自己逐渐被边缘化。在这一波AI浪潮中,“不进则退,转型或淘汰”,已经成为云计算厂商们面临的现实挑战。

当智算基础设施和大模型结合,为整个AI世界装上“涡轮增压器”

展望未来,AI大模型的发展就像一台巨大的引擎,正在推动着技术的边界不断突破。而真正让这个引擎飞速运转的,正是背后的智算基础设施。没有这些强大的算力、存储和网络作为支撑,大模型再聪明,也只能停留在实验室。而当智算基础设施和AI大模型完美结合时,整个AI世界就像装上了涡轮增压器,不仅驱动技术的飞跃,更让AI在商业和产业中全面落地。

以AIGC(生成式AI)为例,AI不仅可以创作高质量的文本、图像,甚至能生成逼真的虚拟世界,这背后依靠的都是庞大的计算和数据资源支持。过去,这种计算能力是奢侈品,只有科技巨头能够玩得起。但随着智算基础设施的普及,生成式AI正变得触手可及,未来中小企业也可以利用AI生成视频、设计产品,甚至自动化生产内容。大模型不仅是实验室里的明星,它将成为商用领域的“生产力工具”。

你可以想象,未来的金融公司利用AI大模型实时监控市场动向,预测金融风险并制定对策。通过智算基础设施,数以亿计的历史数据在几秒钟内就能被处理完毕,为企业提供及时且精确的风险预警。在没有强大的算力支持下,这一切根本无法实现。而现在,AI不仅能跑得快,还能跑得准,让整个金融体系如虎添翼。

自动驾驶的前景同样令人激动。无人驾驶汽车要做出正确的决策,背后需要强大的算力和实时数据分析能力。车辆在行驶中,必须实时处理来自不同传感器的数据,并迅速做出反应——刹车、加速、转向,每一个动作都要求背后有庞大的AI计算支持。

在制造业,AI大模型能够实时监控生产线,预测设备故障,甚至根据市场需求调整生产计划。这种智能化的工厂,几乎是零浪费、高效能的运转模式,每一台设备都在被AI监控和优化。制造企业不再依赖人工经验,而是借助AI进行精准的生产调度,形成真正的“智能工厂”。

未来的世界,将属于那些掌握了智算能力,并能够将AI深度应用于商业实践的创新者们。智算基础设施不仅是推动AI技术爆发的动力,更是整个产业智能化升级的催化剂。