米乐M6:一文读懂英伟达GTC2026:芯片全家桶上线给“龙虾”装安全围栏
)GTC2026大会拉开帷幕。作为全球AI产业最受关注的年度时刻之一,GTC大会被称为“AI春晚”,其中黄仁勋的主题演讲亦备受关注。
大会之前,黄仁勋抛出过一个产业模型为GTC预热,指出“AI是一块五层蛋糕(AI is a Five-Layer Cake)”,从底座向上分别为:能源、电力,米乐M6 米乐M6官方网站芯片、算力基础设施,再到模型与应用,AI已经形成一个全新的产业技术栈,并正在引发人类历史上规模最大的基础设施建设之一。
黄仁勋说:“这次大会将覆盖人工智能五层架构的每一层,当然还有最重要的一层,也是最终真正推动这个行业腾飞的——应用。”
黄仁勋指出,随着推理需求的爆发,正在推动英伟达的市场规模和客户结构同步扩张。
回望2025年10月的华盛顿GTC大会,黄仁勋曾指出,到2026年底,英伟达凭借现有及未来的数据中心芯片,将撬动约5000亿美元的收入规模。
这次GTC的演讲台上,老黄再次给出预判:几个月后,随着 Blackwell与Rubin架构的全面接力,他所预见的市场机会已翻倍跨越。他明确表示,预计到2027年底,英伟达新一代AI芯片的累计营收将正式跨入1万亿美元时代。
英伟达甚至还准备将AI算力“送上天”,推出面向轨道环境运行的Vera Rubin Space Module,用于支持卫星和空间任务中的边缘智能计算。
此前,2025年12月,英伟达以约200亿美元完成了对Groq核心技术资产的收购,Groq创始人Jonathan Ross加入英伟达担任首席软件架构师,Groq 3 LPU正是这笔收购正式落地的第一个公开成果。
黄仁勋推出面向OpenClaw生态的NemoClaw方案,在OpenClaw原有智能体能力的基础上,叠加了NVIDIA Nemotron开放模型,可以让龙虾更聪明,同时内置一套实时安全管控机制,相当于给智能体配了一个全程在线个多小时下来,英伟达GTC给人“系统级”概念印象非常深刻:早期突出的是算力、互联,到最近两年强化对系统级能力,甚至是AI工厂这种综合型基础设施的探索,所以大家会看到,黄仁勋在大会上已不再是单纯强调单一的算力芯片,取而代之的“芯片全家桶”、“算力全家桶”这种系统级解决方案。
2026年CES,Rubin首次以完整平台形态出现,由六颗核心芯片协同工作,构成一台机架级AI超级计算机。
而在本次GTC 2026上,英伟达又进一步将Groq的LPU推理架构整合进平台,并首次将AI工厂、电力调度与智能体运行环境纳入统一架构。
相当于把过去只有超大型科技公司才能搭建的AI超算能力,做成了一套可直接部署的标准机架。既能训练更大的模型,也能让AI像人一样持续工作、更低成本地处理复杂任务。
黄仁勋表示,这是全球首款专为“AI 智能体时代”与“强化学习”设计的处理器。该芯片搭载88颗自研Olympus核心,性能较传统CPU快50%,能效提升达 2倍。
Vera CPU更像是智能体系统背后的“指挥与调度中心”。因为进入AI智能体时代后,很多工作并不只是生成答案,还需要同时管理大量并发任务,例如运行强化学习环境、调用外部工具、执行代码、校验数据结果。这类复杂的编排任务对CPU的单线程性能和带宽提出了前所未有的要求。
也正因为如此,Vera CPU的设计重点不只是单纯提升算力,而是让大量AI环境能够同时稳定运行,基于NVIDIA 空间多线程(Spatial Multithreading)技术,每颗核心可同时处理两个任务,确保了大规模AI服务的响应速度。
单个 Vera CPU机架可集成256颗液冷方案Vera CPU,支持超过22500个并发线程独立满负荷运行,专为大规模“AI工厂”而生。
据介绍,目前已计划部署Vera CPU的云客户包括:Meta、Oracle Cloud、CoreWeave 等;制造合作商涵盖戴尔、HPE、联想、超微电脑、华硕、富士康等。Redpanda 的测试显示,Vera在处理实时数据流时的延迟降低了 5.5倍。相关产品预计将于2026年下半年上市。
在AI智能体时代,推理侧需求正加速分化:大模型训练依赖GPU的高吞吐算力,而面对需要极高交互性、超短响应时间的智能体任务,传统GPU架构存在性能冗余。为此,英伟达正式引入LPU架构,专注于“极致低延迟的token生成”。
在硬件设计上,Groq 3 LPU芯片展现了与传统GPU截然不同的技术路线。它摒弃了容量大但延迟相对较高的HBM显存,单颗芯片集成了500MB的片上SRAM。虽然容量仅为Rubin GPU 的五百分之一,但其提供的带宽高达150 TB/s,是HBM4(22 TB/s)的近7倍。
基于该芯片,英伟达推出了Groq 3 LPX平台(机架)。该平台采用液冷散热,单个机架配备 256颗LPU处理器,累计提供128GB片上SRAM,总扩展带宽达640TB/s。LPX平台作为Vera Rubin架构中的关键补齐,专注于承载大规模、高并发的低延迟推理工作负载。
当Groq 3 LPX平台与Vera Rubin NVL72结合使用时,这种混合架构实现了GPU强劲算力与 LPU极致带宽的完美互补。在百万token上下文场景下,其收益潜力可大幅提升。 该芯片及平台预计将于2026年下半年正式上市。
根据介绍,传统卫星的工作模式是拍摄后将海量数据下载到地面处理,但这套流程正被“数据洪流”压垮。因为一颗地球观测卫星每天可产生数TB数据,而星地通信带宽有限、窗口期短,大量数据积压等待传输。从拍摄到分析结果返回可能耗时数小时,错过灾害预警等场景的黄金窗口。
Vera Rubin Space Module 的核心思路是边缘智能,让卫星在轨完成目标检测和变化分析,只下传有价值的结果而非原始数据,从而大幅降低传输压力。
英伟达表示,目前,像Axiom Space、Planet Labs这些太空赛道的头牌公司,已开始用英伟达的加速平台来跑下一代太空任务了。有了这种算力加持,无论是卫星自主运行还是地理空间智能分析,都将从“慢动作”变成实时响应。
黄仁勋表示:“相比H100 GPU,Rubin Space Module在太空推理算力上提升最高25倍,真正将数据中心级AI算力带入太空”。
BlueField-4 STX扮演着AI智能体“外部上下文记忆体”的关键角色。它打破了传统数据中心存储的性能瓶颈,使智能体在处理超长上下文、跨工具调用及多轮任务协作时,无需频繁重复计算,从而确保了推理过程的连贯性与响应速度。
相比传统存储架构,STX可提供高达5倍的token吞吐量及4倍的能效提升,并将数据摄取速度翻倍。
目前,CoreWeave、Oracle (OCI)、Mistral AI及Lambda等首批行业领先者已宣布采用 STX 作为其上下文记忆存储方案。相关系统预计将于2026年下半年正式上市。
该平台以开源方式开放,核心定位是让AI智能体在自主高效完成任务的同时,确保环境的安全可控。
●以Nemotron 3 Super为代表的开放模型(提供1200亿参数的长上下文推理能力);
●以及OpenShell这一开源运行底座,负责管控智能体的行为边界与安全权限。
除了深耕企业级市场,英伟达此次通过发布NemoClaw技术栈,正式将触角延伸至个人智能体领域。这套方案本质上是为全球增长最快的开源项目OpenClaw提供了全栈式的底层软件支撑。
黄仁勋甚至将其高度评价为“个人AI时代的操作系统”,预示着软件领域“新文艺复兴”的开端。
其关键组件 OpenShell 构建了一个隔离沙箱,为智能体提供了受控的运行环境:智能体能访问何种数据、连接哪些网络,均受明确的安全护栏管控。
此外,该架构支持“本地+云端”的混合模式:敏感任务驻留本地处理,复杂任务则通过隐私路由器(Privacy Router)调用云端尖端模型,真正实现了隐私保护与计算能力的兼得。
黄仁勋在演讲里特别提到,NemoClaw具备极强的硬件普适性。它可运行在从消费级RTX PC、工作站到企业级DGX Station、甚至最新的DGX Spark全系列硬件上,并支持24小时全时在线(Always-on)。这意味着无论是个人开发者还是大型企业,都能在私有环境下部署一套永不离线的“数字雇员”,彻底摆脱对公有云服务的过度依赖。
英伟达在GTC 2026上正式发布的Dynamo 1.0开源平台,正是为破解这一命题而生。
Blackwell架构下,Dynamo可将推理性能最高提升7倍。也就是说,基于这种负载优化,企业能够以更少的硬件冗余,支撑更复杂的智能体任务,精准切中当下“降本增效”的战略刚需。
目前,Dynamo已构建起强大的生态护城河。AWS、Azure、谷歌云及Oracle Cloud四大云巨头已完成深度集成;同时,从
Cursor、Perplexity等AI原生新锐到PayPal等全球化企业,均已在其推理基座中部署Dynamo。08 物理AI爆发:机器人任务成功率翻倍,比亚迪加入英伟达自动驾驶计划
目前,全球头部厂商几乎都在英伟达朋友圈里,从ABB、FANUC、KUKA、安川电机这工业四大巨头,到自带流量的Boston Dynamics和Figure,全都接入了英伟达生态。
通过与Hugging Face合作,英伟达将Isaac和GR00T模型集成到LeRobot开源框架中,打通了机器与AI开发者之间的壁垒,让上千万开发者能直接参与训练,加速机器人进化。
模型层面,新发布的Cosmos 3“世界基础模型”不仅能模拟画面,还能推理物理规则。
同时,人形机器人模型Isaac GR00T N1.7正式开放商业授权,其特点是让机器人通过看、听、动搞定复杂操作。黄仁勋还预告了年底将发布的GR00T N2,据说它在陌生环境中处理新任务的成功率比现有模型高出一倍以上。
此外,英伟达发布了Vera Rubin DSX AI工厂参考设计,以及配套的Omniverse DSX数字孪生蓝图(正式上线),核心目的是帮助企业在建造AI工厂前,用虚拟环境完整模拟电力、冷却、网络、计算的协同运行,最大化每瓦产出的token数量,缩短投产时间。
英伟达围绕这一方向,从底层硬件到上层生态进行了全面部署。当然,这套体系的效能是否能够如老黄演讲所说,还需要客户在后续的“落地”过程中检验。


