智东西美国圣何塞3月18日现场报道ღ★✿ღ,顶着热烈的加州阳光必发bifaღ★✿ღ,一年一度的“AI春晚”英伟达GTC大会盛大开幕ღ★✿ღ。今日上午ღ★✿ღ,英伟达创始人兼CEO黄仁勋穿着闪亮的皮衣ღ★✿ღ,进行了一场激情澎湃的主题演讲ღ★✿ღ,一连亮出四代全新Blackwell Ultra必发bifaღ★✿ღ、Rubinღ★✿ღ、Rubin Ultraღ★✿ღ、Feynman旗舰芯片ღ★✿ღ,公布四年三代GPU架构路线图ღ★✿ღ,还多次提到中国大模型DeepSeekღ★✿ღ。
整场演讲信息量爆棚ღ★✿ღ,覆盖加速计算ღ★✿ღ、深度推理模型ღ★✿ღ、AI智能体ღ★✿ღ、物理AIღ★✿ღ、机器人技术ღ★✿ღ、自动驾驶等在内的AI下一个风口ღ★✿ღ,新发布涉及十大重点ღ★✿ღ:
5ღ★✿ღ、个人AI超算ღ★✿ღ:推出全球最小AI超算DGX Sparkღ★✿ღ、高性能桌面级AI超算DGX Stationღ★✿ღ,方便开发者本地微调或推理深度思考模型ღ★✿ღ。
8ღ★✿ღ、光电一体化封装网络交换机ღ★✿ღ:号称“世界上最先进的网络解决方案”ღ★✿ღ,可将AI工厂扩展到数百万块GPUღ★✿ღ。
9ღ★✿ღ、物理AI/机器人ღ★✿ღ:开源Isaac GR00T N1人形机器人基础模型ღ★✿ღ,与迪士尼研究院ღ★✿ღ、谷歌DeepMind将合作开发开源物理引擎Newtonღ★✿ღ。
10ღ★✿ღ、电信AI和自动驾驶ღ★✿ღ:与通用汽车一起为工厂和汽车构建GM AIღ★✿ღ,构建综合全栈自动驾驶安全系统NVIDIA Halosღ★✿ღ。
值得一提的是ღ★✿ღ,英伟达宣布Blackwell GPU创下满血版DeepSeek-R1推理性能的世界纪录ღ★✿ღ。
通过硬件和软件的结合ღ★✿ღ,英伟达自今年1月以来将DeepSeek-R1 671B模型的吞吐量提高了约36倍ღ★✿ღ,相当于每个token的成本改善了约32倍ღ★✿ღ。
今年GTC人气火爆到史无前例ღ★✿ღ,万元起步的门票悉数售罄ღ★✿ღ,超过25000名观众齐聚现场ღ★✿ღ,几乎整座圣何塞都染上了“英伟达绿”ღ★✿ღ,从街巷ღ★✿ღ、集市ღ★✿ღ、高楼ღ★✿ღ、餐厅ღ★✿ღ、巴士到三轮车高清VPSWINDOWSღ★✿ღ,到处都是醒目的英伟达GTC标识ღ★✿ღ。
还有一个彩蛋ღ★✿ღ,在黄仁勋主题演讲开始前ღ★✿ღ,SAP中心大屏幕上播放的5人对话暖场视频中ღ★✿ღ,画面最右边的正是前英特尔CEO帕特基辛格ღ★✿ღ,他的身份已经变成了Gloo董事长ღ★✿ღ。
迪士尼机器人Blue作为黄仁勋主题演讲的惊喜嘉宾压轴出场ღ★✿ღ,摇头晃脑向黄仁勋撒娇卖萌ღ★✿ღ,还听从黄仁勋的指令ღ★✿ღ,乖乖站到了他的旁边ღ★✿ღ。
此外ღ★✿ღ,本届GTC大会特设China AI Day – 云与互联网线上中文专场ღ★✿ღ,涵盖大模型ღ★✿ღ、数据科学ღ★✿ღ、搜推广等领域的前沿进展ღ★✿ღ,演讲企业包括字节跳动ღ★✿ღ、火山引擎ღ★✿ღ、阿里云ღ★✿ღ、百度ღ★✿ღ、蚂蚁集团ღ★✿ღ、京东ღ★✿ღ、美团ღ★✿ღ、快手ღ★✿ღ、百川智能ღ★✿ღ、赖耶科技ღ★✿ღ、Votee AIღ★✿ღ。
上午9点59分ღ★✿ღ,黄仁勋闪现圣何塞SAP中心舞台ღ★✿ღ,朝不同方向的观众席连放5个冲天炮ღ★✿ღ,然后慢慢走下舞台ღ★✿ღ。
在参会观众翘首等待11分钟后ღ★✿ღ,黄仁勋小步慢跑再度登场ღ★✿ღ,笑容满面地向全场观众打招呼ღ★✿ღ,还带观众云参观了下英伟达总部ღ★✿ღ。
至于为什么要提前展示路线图?黄仁勋说ღ★✿ღ,构建AI工厂和AI基础设施需要数年的规划ღ★✿ღ,不像买笔记本电脑ღ★✿ღ,所以必须提前两三年制定土地ღ★✿ღ、电力ღ★✿ღ、资本支出的计划ღ★✿ღ。
他公布了英伟达继Hopperღ★✿ღ、Blackwell之后的下一代GPU架构——Rubinღ★✿ღ。这一命名来自于发现暗物质的女性科学先驱薇拉鲁宾(Vera Rubin)ღ★✿ღ。
在万众期待中ღ★✿ღ,英伟达新一代数据中心旗舰GPUBlackwell Ultra(GB300)正式登场ღ★✿ღ。
Blackwell Ultra为AI推理时代而设计必发888官网登录入口ღ★✿ღ。ღ★✿ღ,是全球首个288GB HBM3e GPUღ★✿ღ,像拼乐高一样通过先进封装技术将2块掩膜尺寸的GPU拼装在一起ღ★✿ღ,可实现多达1.5倍的FP4推理性能ღ★✿ღ,最高15PFLOPSღ★✿ღ。
该GPU增强了训练和测试时推理扩展ღ★✿ღ,可轻松有效地进行预训练ღ★✿ღ、后训练以及深度思考(推理)模型的AI推理ღ★✿ღ,构建于Blackwell架构基础之上ღ★✿ღ,包括GB300 NVL72机架级解决方案和HGX B300 NVL16系统ღ★✿ღ。
下一代模型可能包含数万亿参数ღ★✿ღ,可以使用张量并行基于工作负载进行任务分配ღ★✿ღ。如取模型切片在多块GPU上运行ღ★✿ღ、将Pipeline放在多块GPU上ღ★✿ღ、将不同专家模型放在不同GPU上ღ★✿ღ,这就是MoE模型ღ★✿ღ。
流水线并行ღ★✿ღ、张量并行ღ★✿ღ、专家并行的结合ღ★✿ღ,可以取决于模型ღ★✿ღ、工作量和环境ღ★✿ღ,然后改变计算机配置的方式ღ★✿ღ,以便获得最大吞吐量ღ★✿ღ,同时对低延迟ღ★✿ღ、吞吐量进行优化ღ★✿ღ。
黄仁勋称ღ★✿ღ,NVL72的优势就在于每块GPU都可以完成上述任务ღ★✿ღ,NVLink可将所有GPU变成单个大型GPUღ★✿ღ。
升级的GB300 NVL72设计ღ★✿ღ,提高了能效和可服务性ღ★✿ღ,通过降低成本和能耗来推进AI推理民主化ღ★✿ღ,相比Hopper将AI工厂的收入机会提高50倍ღ★✿ღ。
与Hopper相比ღ★✿ღ,HGX B300 NVL16在大语言模型上的推理速度加快至11倍ღ★✿ღ,计算能力增加到7倍ღ★✿ღ,内存增至4倍ღ★✿ღ。
英伟达将NVIDIA DGX SuperPOD称作“全球最先进的企业级AI基础设施”ღ★✿ღ,旨在为实时推理和训练提供强大的计算能力ღ★✿ღ。
DGX SuperPOD提供FP4精度和更快的AI推理速度ღ★✿ღ,可扩展到数万块Grace Blackwell Ultra超级芯片ღ★✿ღ,预计将在今年晚些时候从合作伙伴处可获得ღ★✿ღ。
与采用Hopper系统和38TB快内存构建的AI工厂相比高清VPSWINDOWSღ★✿ღ,DGX GB300系统可提供70倍的AI性能ღ★✿ღ。
与上一代Hopper相比ღ★✿ღ,DGX B300系统可提供11倍的AI推理性能和4倍的AI训练加速高清VPSWINDOWSღ★✿ღ。
企业正竞相建设可扩展的AI工厂ღ★✿ღ,以满足AI推理和推理时扩展的处理需求bifaVIP认证ღ★✿ღ,ღ★✿ღ。英伟达推出开源的AI推理软件NVIDIA Dynamoღ★✿ღ,其本质上就是AI工厂的操作系统ღ★✿ღ。
Dynamo(发电机)的命名来源是ღ★✿ღ,发电机是开启上一次工业革命的第一台工具ღ★✿ღ,Dynamo也是现在一切开始的地方ღ★✿ღ。
NVIDIA Dynamo是一个用于大规模服务推理模型的AI推理软件ღ★✿ღ,旨在为部署推理模型的AI工厂实现token收入最大化ღ★✿ღ。
它能够跨数千个GPU编排和加速推理通信ღ★✿ღ,并使用分区分服务来分离不同GPU上大语言模型的处理和生成阶段ღ★✿ღ,使每个阶段可根据特定需求独立优化ღ★✿ღ,并确保GPU资源的最大利用率ღ★✿ღ。
为了提高推理性能ღ★✿ღ,英伟达采用Blackwell NVL8设计ღ★✿ღ,之后又引入新的精度ღ★✿ღ,用更少的资源量化模型ღ★✿ღ。
未来每个数据中心都会受到电力限制ღ★✿ღ,数据中心的收入与之挂钩ღ★✿ღ,因此英伟达用NVL72进行扩展ღ★✿ღ,打造更节能的数据中心ღ★✿ღ。
在GPU数量相同的情况下ღ★✿ღ,Dynamo可将Hopper平台上运行Llama模型的AI工厂性能和收益翻倍ღ★✿ღ。在由GB200 NVL72机架组成的大型集群上运行DeepSeek-R1模型时ღ★✿ღ,Dynamo的智能推理优化也可将每个GPU生成的token数量提高30倍以上ღ★✿ღ。
基于Dynamoღ★✿ღ,相比Hopperღ★✿ღ,Blackwell性能提升25倍ღ★✿ღ,可以基于均匀可互换的可编程架构ღ★✿ღ。在推理模型中ღ★✿ღ,Blackwell性能是Hopper的40倍ღ★✿ღ。
黄仁勋说ღ★✿ღ:“这就是我以前为什么说ღ★✿ღ,当Blackwell批量发货时ღ★✿ღ,你不要把Hopper送人ღ★✿ღ。”他调侃自己是“首席收入官”ღ★✿ღ。
“买得越多ღ★✿ღ,省得越多ღ★✿ღ,赚得越多ღ★✿ღ。”黄仁勋的经典带货名言又来了ღ★✿ღ,这次他特别强调AI工厂收入的提高ღ★✿ღ,100MW AI工厂会包含45000颗GPU Dieღ★✿ღ、1400个机架ღ★✿ღ、每秒生成3亿个tokenღ★✿ღ。
为了提升推理性能ღ★✿ღ,NVIDIA Dynamo加入了一些功能ღ★✿ღ,使其能够提高吞吐量的同时降低成本ღ★✿ღ。
它可以根据不断变化的请求数量和类型ღ★✿ღ,动态添加ღ★✿ღ、移除ღ★✿ღ、重新分配GPUღ★✿ღ,并精确定位大型集群中的特定GPUღ★✿ღ,从而更大限度地减少响应计算和路由查询ღ★✿ღ。
它还可以将推理数据卸载到成本更低的显存和存储设备上ღ★✿ღ,并在需要时快速检索这些数据ღ★✿ღ,最大程度地降低推理成本ღ★✿ღ。
Dynamo可将推理系统在处理过往请求时于显存中保存的知识(称为KV缓存)ღ★✿ღ,映射到潜在的数千块GPU中ღ★✿ღ。然后ღ★✿ღ,它会将新的推理请求路由到与所需信息匹配度最高的GPU上ღ★✿ღ,从而避免昂贵的重新计算ღ★✿ღ,并释放GPU来响应新的请求ღ★✿ღ。
该软件完全开源并支持PyTorchღ★✿ღ、SGLangღ★✿ღ、NVIDIA TensorRT-LLM和vLLMღ★✿ღ,使企业ღ★✿ღ、初创公司和研究人员能够开发和优化在分离推理时部署AI模型的方法ღ★✿ღ。
英伟达正为全球企业提供构建AI智能体的核心模块ღ★✿ღ,推动企业级AI技术的普及与创新ღ★✿ღ。英伟达的Llama Nemotron可以在任何地方运行ღ★✿ღ,包括DGX Sparkღ★✿ღ、DGX Station以及OEM制造的服务器上ღ★✿ღ,甚至可以将其集成到任何AI智能体框架中ღ★✿ღ。
AT&T正在开发公司专用的的AI智能体系统ღ★✿ღ。未来ღ★✿ღ,英伟达不仅会雇佣ASIC设计师ღ★✿ღ,还会与Cadence合作ღ★✿ღ,引入数字ASIC设计师来优化芯片设计ღ★✿ღ。Cadence正在构建他们的AI智能体框架ღ★✿ღ,英伟达的模型ღ★✿ღ、NIM和库已经深度集成到他们的技术中ღ★✿ღ。Capital Oneღ★✿ღ、德勤ღ★✿ღ、纳斯达克ღ★✿ღ、SAPღ★✿ღ、ServiceNowღ★✿ღ、Accentureღ★✿ღ、Amdocs等企业也将英伟达技术深度融入AI框架中ღ★✿ღ。
黄仁勋还宣布存储龙头们构建企业级AI数据平台ღ★✿ღ。原本企业的存储系统是基于召回的ღ★✿ღ,而如今的系统应该基于语义ღ★✿ღ。基于语义的存储系统时刻在嵌入原始数据ღ★✿ღ,用户使用数据时只需使用自然语言进行交互ღ★✿ღ,便能找到需要的数据ღ★✿ღ。
NVIDIA DGX Spark和DGX Station是英伟达打造的个人AI计算机ღ★✿ღ,让开发者能在桌面上对大模型进行原型ღ★✿ღ、微调ღ★✿ღ、推理ღ★✿ღ。
DGX Spark可以被用来微调或推理最新的AI推理模型ღ★✿ღ,比如英伟达今天新发布的Cosmos推理世界基础模型和GR00T N1机器人基础模型ღ★✿ღ。该AI超算的预订今日起开放ღ★✿ღ。
DGX Station是一款基于Blackwell Ultra的新型高性能桌面级超级计算机ღ★✿ღ,为桌面带来了数据中心级别的性能ღ★✿ღ,用于AI开发ღ★✿ღ,今年晚些时候可从英伟达制造合作伙伴处获得ღ★✿ღ。
Blackwell系统构建于英伟达强大的开发工具生态系统ღ★✿ღ、CUDA-X库ღ★✿ღ、600多万开发者和4000多个应用的基础上ღ★✿ღ,可在数千块GPU上扩展性能ღ★✿ღ,非常适合运行新的Llama Nemotron推理模型ღ★✿ღ、AI-Q蓝图ღ★✿ღ、AI企业级软件平台ღ★✿ღ。
黄仁勋说CUDA-X是GTC的全部意义所在ღ★✿ღ。他展示了一张自己最喜欢的幻灯片ღ★✿ღ,包含了英伟达构建的关于物理ღ★✿ღ、生物ღ★✿ღ、医学的AI框架ღ★✿ღ,包括加速计算库cuPyNumeric高清VPSWINDOWSღ★✿ღ、计算光刻库cuLithoღ★✿ღ,软件平台cuOPTღ★✿ღ、医学成像库Monaiearth-2ღ★✿ღ、加速量子计算的cuQuantumღ★✿ღ、稀疏直接求解器库cuDSSღ★✿ღ、开发者框架WARP等ღ★✿ღ。
据他分享ღ★✿ღ,英伟达正在全面生产Blackwellღ★✿ღ,有十几家企业已生产和部署Blackwell系统ღ★✿ღ。
2025年ღ★✿ღ,英伟达已经向美国前四大云服务提供商售出超过360万块Blackwell GPUღ★✿ღ,相比去年销售Hopper的数量高出3倍ღ★✿ღ,去年Hopper销售量为130万块ღ★✿ღ。
3年前的英伟达GPU尚未将NVLink独立出来ღ★✿ღ,导致单一系统体积和重量惊人ღ★✿ღ,这代HGX系统8卡版本重达70磅ღ★✿ღ,黄仁勋称自己根本不可能将其举起展示ღ★✿ღ,而机架整体需要搭载4个8卡版本ღ★✿ღ。这极大影响了数据中心的能效和可扩展性ღ★✿ღ。
于是ღ★✿ღ,英伟达决定将NVLink与GPU分离ღ★✿ღ,以单独的NVLink组件实现GPU间的全速通信ღ★✿ღ。
原本的系统零件约有6万个ღ★✿ღ,而升级后的系统零件达到了60万个ღ★✿ღ,相当于20辆汽车的零件数量ღ★✿ღ。这一个机柜的算力就达到了1EFLOPSღ★✿ღ,由5000根线英里ღ★✿ღ。
英伟达大费周章将二者分离的原因ღ★✿ღ,是为了实现极致的垂直扩展(Scale-Up)ღ★✿ღ,也就是扩展单一机柜的算力ღ★✿ღ。在目前的制造工艺限制下ღ★✿ღ,根本不可能造出单体包含130万亿颗晶体管的系统ღ★✿ღ。
黄仁勋认为ღ★✿ღ,推理远没有想象中的那么简单ღ★✿ღ,需要做好成本与性能的完美平衡ღ★✿ღ,这一平衡直接影响了服务质量和盈利能力ღ★✿ღ。
为了阐释推理中的诸多考量因素ღ★✿ღ,黄仁勋使用了一个坐标系ღ★✿ღ。x轴代表每秒生成的token数量ღ★✿ღ,Y轴代表系统的总吞吐量ღ★✿ღ。
现场ღ★✿ღ,黄仁勋演示了DeepSeek-R1和Llama 3.3 70B的对比ღ★✿ღ。Llama这类非推理类模型虽然token用量更少ღ★✿ღ,但回答质量较低ღ★✿ღ,而耗费20倍tokenღ★✿ღ、150倍算力的推理模型ღ★✿ღ,能对复杂问题给出高质量的准确回答ღ★✿ღ。
但如果生成的速度不理想ღ★✿ღ,也会影响用户使用服务的意愿ღ★✿ღ,因此每秒生成的token数量需要尽可能高ღ★✿ღ。数据中心还要尽可能地为更多用户提供服务ღ★✿ღ,这样才能最大化收益ღ★✿ღ。
英伟达今天还发布了RTX Pro Blackwell系列工作站和服务器GPUღ★✿ღ,提供加速计算ღ★✿ღ、AI推理ღ★✿ღ、光线追踪和神经网络渲染技术ღ★✿ღ,使其数据中心GPU从桌面到移动工作站提供动力ღ★✿ღ。
工作站和服务器GPU内存高达96GBღ★✿ღ,笔记本电脑GPU内存达到24GBღ★✿ღ,使应用程序可更快运行ღ★✿ღ,并使用更大更复杂的数据集ღ★✿ღ。
RTX PRO 6000数据中心和桌面GPU可将单GPU安全分区成最多4个实例ღ★✿ღ,5000系列桌面GPU可将单GPU安全分区成两个实例ღ★✿ღ。
1ღ★✿ღ、数据中心GPUღ★✿ღ:RTX PRO 6000 Blackwell服务器版ღ★✿ღ,采用被动冷却热设计ღ★✿ღ,每台服务器最多可配置8块GPUღ★✿ღ,可与NVIDIA vGPU软件结合为虚拟化环境中的AI工作负载提供动力ღ★✿ღ,预计将在今年下半年推出ღ★✿ღ。
新笔记本电脑GPU还支持最新NVIDIA Blackwell Max-Q技术ღ★✿ღ,可智能且持续地优化笔记本电脑性能和能效ღ★✿ღ。
随着AI工厂发展到前所未有的规模ღ★✿ღ,AI网络基础设施也必须升级ღ★✿ღ。英伟达将其光交换机称作“世界上最先进的网络解决方案”ღ★✿ღ。
英伟达今日发布全新共封装(CPO)的NVIDIA Spectrum-X和Quantum-X硅光网络交换机ღ★✿ღ,可将AI工厂扩展到数百万个GPUღ★✿ღ。
与传统方法相比ღ★✿ღ,英伟达光交换机集成了光学创新ღ★✿ღ,将激光器减少至1/4ღ★✿ღ,每端口1.6Tb/sღ★✿ღ,可提供3.5倍的能效ღ★✿ღ、63倍的信号完整性ღ★✿ღ、10倍的大规模网络弹性ღ★✿ღ、1.3倍快的部署时间ღ★✿ღ。
黄仁勋谈道ღ★✿ღ,英伟达希望将以太网的水平提升至InfiniBand级别ღ★✿ღ,这意味着更极致的拥塞控制ღ★✿ღ、延迟控制ღ★✿ღ。
相较传统以太网ღ★✿ღ,Spectrum-X以太网网络平台可为多租户ღ★✿ღ、超大规模AI工厂提供1.6倍的带宽密度ღ★✿ღ。
Quantum-X光交换机预计将在今年晚些时候上市ღ★✿ღ,提供144个基于200Gb/s SerDes的800Gb/s InfiniBand端口ღ★✿ღ,并采用液冷设计对板载硅光器件进行高效散热ღ★✿ღ。其AI计算网的速度是上一代产品的2倍ღ★✿ღ,扩展性是上一代产品的5倍ღ★✿ღ。
该系统搭载Quantum-X800 ASIC芯片ღ★✿ღ,并配备6个光学子组件和18个硅光芯片引擎ღ★✿ღ。
324个光学连接器串联起这一系统ღ★✿ღ,总计有36个激光输入和288个数据连接ღ★✿ღ,内置光纤管理功能ღ★✿ღ。
每个硅光芯片引擎拥有200GB/s的微光调制器ღ★✿ღ,总吞吐量为1.6Tb/sღ★✿ღ,实现3.5倍节能ღ★✿ღ。
台积电的硅光子解决方案结合了其在先进芯片制造和台积电SoIC 3D芯片堆叠方面的优势ღ★✿ღ,帮助英伟达释放AI国产扩展到百万GPU甚至更多ღ★✿ღ。
黄仁勋做了一个换算必发bifaღ★✿ღ,这一系统的应用能在单个数据中心中节省数十个Megawatts的能源ღ★✿ღ,而60Megawatts就相当于10台Rubin Ultra机架的能耗ღ★✿ღ。
物理AI正在改变价值50万亿美元的行业ღ★✿ღ,在英伟达三台计算机上构建数十亿个机器人ღ★✿ღ。英伟达将机器人视作下一个数万亿美元产业ღ★✿ღ。
黄仁勋宣布推出开源ღ★✿ღ、预训练ღ★✿ღ、可定制的Isaac GR00T N1人形机器人基础模型ღ★✿ღ,旨在加快人形机器人的开发ღ★✿ღ,已提前获得该模型的公司包括波士顿动力ღ★✿ღ、Agility Robotics高清VPSWINDOWSღ★✿ღ、Mentee Roboticsღ★✿ღ、Neura Robotics等ღ★✿ღ。
黄仁勋谈道ღ★✿ღ,物理AI和机器人技术发展得很快ღ★✿ღ,但也面临着和大模型同样的挑战ღ★✿ღ,就是如何获得数据ღ★✿ღ、如何扩展让机器人更聪明ღ★✿ღ。
一是扩展AI的生成能力和理解物理世界的生成模型ღ★✿ღ,也就是Cosmosღ★✿ღ。Cosmos可以生成无限数量的环境数据ღ★✿ღ。
二是ღ★✿ღ,机器人的可验证回报是物理定律ღ★✿ღ,因此需要设计用于模拟真实世界中的物理现象的物理引擎ღ★✿ღ。这一物理引擎需要被设计用于训练触觉反馈ღ★✿ღ、精细运动技能和执行器控制ღ★✿ღ。也就是上面迪士尼机器人Blue已经搭载的物理引擎ღ★✿ღ。
在机器人开发中ღ★✿ღ,英伟达Omniverse可以生成大量不同的合成数据ღ★✿ღ,开发人员根据不同领域聚合现实世界的传感器和演示数据ღ★✿ღ,将原始捕获的数据乘以大量照片级的多样化数据ღ★✿ღ,然后使用Isaac Lab增强数据集对机器人策略进行后训练ღ★✿ღ,让其通过模型放行为学习新技能ღ★✿ღ。
实地测试中ღ★✿ღ,开发人员使用Omniverse动态模拟真实环境进行测试ღ★✿ღ。现实世界的操作需要多个机器人协同工作ღ★✿ღ,Mega和Omniverse允许开发人员大规模测试ღ★✿ღ。
要将加速计算带到真实世界的每一个场景之中ღ★✿ღ,不仅需要芯片和CUDA这样的库ღ★✿ღ,还需要为每个场景建立对应的软件栈——如企业ღ★✿ღ、工厂ღ★✿ღ、机器人ღ★✿ღ、GPU云等应用场景ღ★✿ღ。
英伟达认为AI将对电信行业产生深远影响bifa必发唯一官网ღ★✿ღ,ღ★✿ღ,6G网络进入倒计时必发bifaღ★✿ღ,下一个时代将是AI原生无线网络ღ★✿ღ,包括用于无线电信号处理的AI/MLღ★✿ღ、神经网络模型ღ★✿ღ。这将释放频谱效率的巨大收益ღ★✿ღ。
现场ღ★✿ღ,黄仁勋宣布英伟达与Ciscoღ★✿ღ、T-Mobile等几家志同道合的电信龙头合作ღ★✿ღ,建立由AI驱动的电信系统ღ★✿ღ,为6G开发AI原生无线网络ღ★✿ღ,以NVIDIA AI Aerial平台为基础ღ★✿ღ,确保下一代无线网络将是AI原生的ღ★✿ღ。
其目标是研究和开发一个AI原生ღ★✿ღ、高光谱效率ღ★✿ღ、开放和差异化的6G无线平台ღ★✿ღ,在频谱效率ღ★✿ღ、电源效率ღ★✿ღ、运营效率ღ★✿ღ、安全性ღ★✿ღ、成本效益ღ★✿ღ、创收机会方面设置新基准ღ★✿ღ,可用于全球部署ღ★✿ღ。
他回忆道ღ★✿ღ,当初AlexNet的出现ღ★✿ღ,让英伟达决定开始研究自动驾驶技术ღ★✿ღ,一转眼10年已逝ღ★✿ღ,如今英伟达的产品几乎出现在所有自动驾驶汽车之中ღ★✿ღ。
黄仁勋宣布高清VPSWINDOWSღ★✿ღ,通用汽车将会成为英伟达最新的合作伙伴ღ★✿ღ,在生产ღ★✿ღ、设计ღ★✿ღ、模拟和车机中应用英伟达的AI技术ღ★✿ღ。英伟达和通用汽车将协力为工厂和汽车构建GM AIღ★✿ღ。
对此ღ★✿ღ,英伟达发布综合全栈自动驾驶安全系统NVIDIA Halos必发bf88唯一官网登录ღ★✿ღ,ღ★✿ღ。英伟达自动驾驶技术的全栈代码将交由第三方进行安全检验ღ★✿ღ,确保这些技术能充分反映现实世界的多元性ღ★✿ღ。
英伟达的自动驾驶模型采用蒸馏技术开发ღ★✿ღ、表现较好但速度较慢的模型会逐渐将知识传递给表现尚未完善ღ★✿ღ、但速度较快的模型ღ★✿ღ。此外ღ★✿ღ,有大量数据被转换成了3D场景ღ★✿ღ,可用于虚拟环境中的模拟ღ★✿ღ。
如今ღ★✿ღ,在英伟达Omniverse和Cosmos中ღ★✿ღ,自动驾驶模型能从变化中学习并自我改进ღ★✿ღ。Cosmos能根据图像建立现实世界的4D模型(包含图像分割)ღ★✿ღ,并通过计算机模拟同一场景的不同状况ღ★✿ღ,比如雨天ღ★✿ღ、雪天ღ★✿ღ、夜晚等等ღ★✿ღ,这将进一步提升自动驾驶模型的能力ღ★✿ღ。
例如ღ★✿ღ,在下方案例中ღ★✿ღ,用户输入了一则指令ღ★✿ღ,要求模型生成冬季城市环境中ღ★✿ღ,一辆汽车打开雨刮器ღ★✿ღ,左转时的画面ღ★✿ღ。在经过推理后高清VPSWINDOWSღ★✿ღ,模型生成的画面极为逼真ღ★✿ღ,能作为高质量数据加到自动驾驶模型训练过程中ღ★✿ღ。
黄仁勋回顾说ღ★✿ღ,在开始研究GeForce 25年后ღ★✿ღ,GeForce已经在全球范围内售罄ღ★✿ღ。GeForce将支持AI的CUDA带向世界ღ★✿ღ,现在AI彻底改变了计算机图形学ღ★✿ღ。
AI在10年间已经取得了巨大进步ღ★✿ღ。2023年的重大突破是AI智能体(AI Agents)ღ★✿ღ,AI智能体可以对如何回答或者解决问题进行推理ღ★✿ღ、在任务中进行规划ღ★✿ღ、理解多模态信息ღ★✿ღ、从网站中的视频中学习等必发bifaღ★✿ღ,然后通过这些学到的学习来执行任务ღ★✿ღ。
下一波浪潮是物理AIღ★✿ღ,可以理解摩擦ღ★✿ღ、惯性和因果关系ღ★✿ღ,使机器人技术成为可能ღ★✿ღ,开辟出新的市场机会ღ★✿ღ。
关于AI智能体和物理AI有几个核心问题ღ★✿ღ:一是如何解决数据问题ღ★✿ღ,AI需要数据驱动ღ★✿ღ,需要数据来学习ღ★✿ღ、获得知识ღ★✿ღ;二是如何解决训练问题ღ★✿ღ,AI需要以超人的速度ღ★✿ღ、以人类无法达到的规模进行学习ღ★✿ღ;三是如何扩展实现Scaling Lawღ★✿ღ,如何找到一种算法让AI更聪明ღ★✿ღ。
首先从AI可以做什么开始ღ★✿ღ,AI可以逐步分解问题ღ★✿ღ、以不同方式解决同样问题ღ★✿ღ、为答案进行一致性检查等ღ★✿ღ。
当AI基于思维链进行一步步推理ღ★✿ღ、进行不同的路径规划时ღ★✿ღ,其不是生成一个token或一个单词ღ★✿ღ,而是生成一个表示推理步骤的单词序列ღ★✿ღ,因此生成的token数量会更多ღ★✿ღ,甚至增加100倍以上ღ★✿ღ。
三大AI Scaling Laws(预训练ღ★✿ღ、后训练ღ★✿ღ、测试时)对计算提出指数级需求ღ★✿ღ。随着计算成本增加ღ★✿ღ,需要全栈创新来降低成本/tokensღ★✿ღ。
黄仁勋解释说ღ★✿ღ,模型更复杂ღ★✿ღ,生成的token多10倍ღ★✿ღ,为了保证模型的响应性和交互性ღ★✿ღ,因此计算速度必须提高10倍ღ★✿ღ。
其次是关于如何教AIღ★✿ღ。教会AI如何推理的两个基本问题是数据从哪里来ღ★✿ღ、如何不受限制学习ღ★✿ღ,答案就是强化学习ღ★✿ღ。
人类历史上已经明确了二次方程的解法ღ★✿ღ、数独ღ★✿ღ、勾股定理等诸多知识ღ★✿ღ,基于数百个这样的案例可以生成数百万个例子让AI去解决ღ★✿ღ,然后使用强化学习来奖励ღ★✿ღ。这个过程中ღ★✿ღ,AI需要处理数百万个不同问题ღ★✿ღ、进行数百次尝试ღ★✿ღ,而每一次尝试都会生成数万个tokenღ★✿ღ,这些都加到一起ღ★✿ღ,就会达到数万亿个tokenღ★✿ღ。
AI变得更聪明ღ★✿ღ,使得训练这些模型所需的计算量大幅增长ღ★✿ღ。黄仁勋预计2030年末ღ★✿ღ,数据中心建设支出将达到1万亿美元ღ★✿ღ。
这背后的第一个动态变化是ღ★✿ღ,通用计算已经用完ღ★✿ღ,业界需要新的计算方式ღ★✿ღ,世界将经历手动编码软件到机器学习软件的平台转变ღ★✿ღ。
第二个变化是ღ★✿ღ,人们越来越认识到软件的未来需要大量投资ღ★✿ღ。这是因为计算机已经成为token的生成器ღ★✿ღ,基于生成式的计算构建AI工厂ღ★✿ღ,然后在AI工厂里生成tokens并重组为音乐ღ★✿ღ、文字ღ★✿ღ、视频ღ★✿ღ、化学品等各种类型的信息ღ★✿ღ。
作为AI行业风向标ღ★✿ღ,英伟达GTC 2025大会将举办超过1000场会议ღ★✿ღ、汇聚2000名演讲嘉宾和近400家参展商ღ★✿ღ,涵盖大语言模型ღ★✿ღ、物理AIღ★✿ღ、云计算ღ★✿ღ、科学发现ღ★✿ღ、气候研究ღ★✿ღ、医疗健康ღ★✿ღ、网络安全ღ★✿ღ、人形机器人ღ★✿ღ、自动驾驶等主题ღ★✿ღ,并将举办首届量子日ღ★✿ღ,将汇集全球量子计算界和业内重要人物ღ★✿ღ,与黄仁勋共同探讨量子计算的现状和未来ღ★✿ღ。
现场参会者还能体验各种精心策划的活动ღ★✿ღ,包括数十场覆盖各个行业的演示ღ★✿ღ、实战培训bifa·必发(中国)唯一官方网站ღ★✿ღ,ღ★✿ღ、自动驾驶汽车展览和试驾ღ★✿ღ,还有集结20家当地供应商和手艺人制作的小吃和商品的GTC夜市ღ★✿ღ,盲猜一波酷爱逛夜市的黄仁勋会惊喜现身ღ★✿ღ。