黄仁勋最新演讲:CPU扩张的时代结束了!

图片
5月29日上午11点,英伟达创始人黄仁勋在 COMPUTEX 2023 (2023台北国际电脑展)上发表主题演讲,分享英伟达在 AI、图形及其他领域的最新进展
黄仁勋称,这次演讲距离他上一次公开演讲,已经过去了四年。而当前,在人工智能的的浪潮推动下,英伟达的股票和市值飙升到了万亿美元的关口。
01
新的计算机时代到来
在演讲开场,黄仁勋就抛出观点:加速计算和人工智能重塑了计算机行业,并称“我们所有人都深嵌其中并且能感受得到”。
CPU扩张的时代已经结束了(CPU scaling has ended)。当下需持续提升运算能力的数据中心需要的CPU越来越少,需要的GPU越来越多。如今的“计算机”是指数据中心、是指云,而能为未来“计算机”写程序的程序员也将面临行业变革。
图片
图源:英伟达官网视频截图
我们现在已经到了新计算机(时代)的临界点。”黄仁勋表示。目前,英伟达的CUDA 计算范例被3000 多个应用程序和超过400 万开发人员使用;全球有 40000 家公司正使用英伟达的加速计算,包括几乎所有计算机公司和云计算公司。
新的计算模型将带来更低的成本。黄仁勋给出了两组对比,1000万美金的成本,可以建设一个有960颗CPU的数据中心,其可以处理1X LMM(大语言模型)的数据量,需要消耗的功率是11GWh。
图片
图源:英伟达官网视频截图
换成新的计算模式,同样成本,可以建设一个有48个GPU的数据中心,其可处理44X LLM数据量,仅需要3.2GWh功耗
同样成本下,若只想处理1X LMM数据量,则只需40万美元,便可拥有一个搭载2个GPU、功耗仅0.13GWh的数据中心。
The more you buy,The more you save。(买得越多,省得越多)”黄仁勋再次表示。
02
多款新品炸场
在COMPUTEX 2023上,黄仁勋激情演讲2个小时,带来多项新品进展。
GH200超级芯片全面投产
黄仁勋在大会上宣布 NVIDIA GH200 Grace Hopper超级芯片已全面投产,将为全球即将上线的系统提供动力,以运行复杂的人工智能和高效运算工作。
搭载GH200的系统加入了400多种基于NVIDIA最新的CPU和GPU架构(包括NVIDIA Grace、NVIDIA Hopper 和NVIDIA Ada Lovelace)的系统配置,旨在满足对生成式人工智能的激增需求。
图片
图源:英伟达官网视频截图
GH200 Grace Hopper芯片结合了基于Arm架构的NVIDIA Grace CPU和Hopper GPU,并使用NVIDIA NVLink-C2C互连技术。这提供了高达900GB/s的频宽,比传统加速系统中的标准PCIe Gen5的频宽高7倍,为要求最严格的生成式人工智能和高效能运算应用提供了惊人的运算能力。
算力“杀器”DGX GH200超级计算机亮相
全新级别大型存储器 AI 超级计算机——搭载 NVIDIA GH200 Grace Hopper 超级芯片与 NVIDIA NVLink Switch System 的 NVIDIA DGX 超级计算机也在演讲中亮相。
该计算机旨在替生成式人工智能语言应用、推荐系统及资料分析工作负载开发巨型的下一代模型,预计将于今年底开始供货
据悉,NVIDIA DGX GH200 拥有巨大的共享存储器空间。它使用 NVLink 互连技术及 NVLink Switch System 来连接256个GH200 Grace Hopper 超级芯片,让所有超级芯片以单一 GPU 的方式来执行各项作业。
这提供了 1 exaflop 的效能和 144 TB 的共享存储器,与于2020年推出的前代NVIDIA DGX A100系统的存储器容量增加了近500倍
Google Cloud、Meta与微软是首批预计可使用 DGX GH200 来探索其生成式人工智能工作负载能力的公司。
推出Spectrum-X网络平台
黄仁勋宣布推出NVIDIA Spectrum-X,这是一个旨在提高基于以太网的AI云的性能和效率的网络平台。
相比传统以太网结构,Spectrum-X可实现1.7倍的整体AI性能和能效提升,并具有高度通用性,可用于各种AI应用。它使用完全基于标准的以太网,并可与基于以太网的堆栈互操作。
该平台支持256个200Gb/s端口,通过单个交换机连接,或在两层leaf-spine拓扑中提供16000个端口,以支持AI云增长和扩展,在保持性能的同时最大限度减少网络延迟。
推出MGX服务器规范
黄仁勋还在会上发布NVIDIA MGX服务器规范,该规范旨在为系统制造商提供模块化参考架构,可满足各种规模的数据中心需求。
系统制造商可使用它快速且经济高效地构建100多种服务器配置,以适应广泛的AI、HPC及NVIDIA Omniverse应用。
据悉,目前华硕、和硕、QCT、超微(Supermicro)等都将采用MGX构建下一代加速计算机。通过采用MGX可削减多达3/4的开发成本,并将开发时间缩短2/3至仅需6个月。
01
AI应用全面开花
黄仁勋在演讲中表示,希望将生成式 AI 扩展到全球企业,那将会形成许多不同的服务器配置。目前,通过与不同行业的企业合作,英伟达正推动AI全面落地。
提供ACE代工服务
游戏一直是备受关注的一大AI应用落地领域。黄仁勋在大会上也宣布,将推出面向游戏的定制AI模型代工服务NVIDIA Avatar Cloud Engine(ACE)。
图片
图源:英伟达官网视频截图
在现场演示Demo中,玩家仅需通过一个按钮,就可用自己的声音与NPC角色进行对话。而NPC角色与玩家的对话内容完全由生成式AI根据玩家的语音输入实时生成。同时,NPC角色还有着逼真的面部表情和声音,与玩家的对话均与背景故事相符。
打造生成式AI内容引擎
黄仁勋表示,他们正与WPP开发一款利用NVIDIA Omniverse和人工智能的内容引擎,以更快、更高效、更规模化的方式帮助创意团队制作高质量的商业内容,同时完全与客户的品牌内核保持一致,这或将为未来的广告业带来“颠覆式”革新。
这款新引擎将融合3D成像软件、制造和创意供应链等工具组成一个生态系统:包括Adobe和Getty Images,让WPP的艺术家和设计师将3D内容创作与生成式AI相结合。
帮助建设数字化智能工厂
黄仁勋表示,全球电子制造商正在使用一种全新的综合参考工作流程推进工业数字化工作,该工作流程结合了英伟达用于生成式AI、3D协作、仿真和自主机器的技术,包括:
英伟达Omniverse,其连接了顶级计算机辅助设计应用以及生成式AI的API和前沿框架;用于模拟和测试机器人的英伟达Isaac Sim应用程序;英伟达Metropolis视觉AI框架,用于自动光学检测。
图片
图源:英伟达官网视频截图
目前,富士康工业互联网、宜鼎国际、和硕、广达和纬创正在使用这一参考工作流程,具体用例包括电路板质保检测点自动化、光学检测自动化、建设虚拟工厂、模拟协作机器人、构建及运营数字孪生等。
参考资料:
1、NVIDIA Grace Hopper 超级芯片设计用于加速生成式人工智能已全面投产https://benchlife.info/nvidia-grace-hopper/
2、NVIDIA 宣布推出 DGX GH200 人工智能超级计算机https://benchlife.info/nvidia-dgx-gh200/
3、“AI春晚”英伟达放大招:亮算力“杀器”、助游戏“捏人,财联社
4、英伟达放“大招”:当AI真正融入,游戏会变成什么样子,华尔街见闻