必一运动·(B-sports)官方网站

业界动态
英伟达GTC 2025盛赞完DeepSeek,黄仁勋就发新模型要抢客户!黄仁勋:新推理模型大幅超越DeepSeek,Rubin,处理器,芯片
2025-03-21 02:11:36
英伟达GTC 2025盛赞完DeepSeek,黄仁勋就发新模型要抢客户!黄仁勋:新推理模型大幅超越DeepSeek,Rubin,处理器,芯片

从揭晓新AI处理器致(zhi)敬女天文学家,到(dao)发布首款开源机器人模型,再到(dao)盛赞DeepSeek并(bing)强调不会冲击自家芯片需求,最(zui)后又发布一款新推理模型号称可以秒(miao)杀DeepSeek;这构成了今天黄仁勋在GTC大会主题演讲的(de)几(ji)个精彩时刻。

还是那身黑色皮(pi)衣,黄仁勋走上GTC舞台,宣(xuan)布自己依然不会使用提词器,甚至笔记都没有准备。激情即兴是他的(de)演讲标志风格,拿(na)着幻灯片遥(yao)控器就(jiu)可以一路说下去。

今天在加(jia)利福尼亚州圣何塞举办的(de)GTC 2025大会上,英(ying)伟达CEO黄仁勋向全(quan)球展示了他们在人工智能(AI)领(ling)域的(de)最(zui)新技(ji)术突破。从宣(xuan)布下一代GPU架构到(dao)将AI带入商用,宣(xuan)布快餐巨头Taco Bell的(de)合作(zuo),英(ying)伟达不仅巩固(gu)了其在AI计算领(ling)域的(de)领(ling)导(dao)地位(wei),还将其技(ji)术触角延伸至零售服务业。

这是英(ying)伟达在疫情之后第二次在圣何塞举办GTC大会。本次大会吸引了约2.5万(wan)名与会者,包括MicroSoft、GOOGLE、Waymo和福特等行业巨头,共同探讨AI硬件的(de)未来应用。

早上八点SAP体育场外就(jiu)排起了队,只为了尽早入场现场聆(ling)听黄仁勋的(de)主题演讲,因(yin)为体育馆场内座位(wei)有限,排在后面的(de)只能在外面看大屏幕。黄仁勋开玩笑称,自己需要(yao)更大的(de)会场。

为什么GTC大会如此吸引关(guan)注?作(zuo)为AI时代的(de)引擎提供商,英(ying)伟达在短短两年就(jiu)成为了半导(dao)体巨无霸,甚至一度市值超过苹果,成为了全(quan)球市值最(zui)高(gao)企业。不夸张(zhang)地说,整个行业都在密切关(guan)注英(ying)伟达的(de)每(mei)一次发布会,关(guan)注着新一代处理器,因(yin)为这直接关(guan)系到(dao)未来几(ji)年的(de)AI算力。

那么今天的(de)GTC 2025,黄仁勋宣(xuan)布了哪些(xie)重(zhong)磅产品与消息(xi)?

新处理器致(zhi)敬女天文学家

如外界(jie)预(yu)期,黄仁勋在主题演讲中发布了全(quan)新AI处理器“Vera Rubin”,以美(mei)国女天文学家维(wei)拉·鲁宾(1928-2016)命名。这款芯片整合了英(ying)伟达首款定制CPU “Vera”和全(quan)新设计的(de)GPU,标志着英(ying)伟达在处理器设计上的(de)重(zhong)大突破。这款处理器预(yu)计于2026年下半年出货。

Vera CPU基于英(ying)伟达自研(yan)的(de)Olympus核心架构,此前英(ying)伟达多依赖Arm的(de)现成设计(如Cortex系列)。定制化设计让Vera在性能上比Grace Blackwell芯片中的(de)CPU快约两倍,具(ju)体表现为更高(gao)的(de)每(mei)时钟周令数(shu)(IPC)和更低的(de)功耗。

英(ying)伟达表示,这款全(quan)新处理器将采用台积电的(de)3nm工艺制造(zao),晶体管(guan)密度较5nm工艺提升约2.5倍,达到(dao)每(mei)平方毫米约1.5亿个晶体管(guan)。这种工艺进步显著提升了计算效(xiao)率,尤其适(shi)合AI推理任务的(de)高(gao)并(bing)行需求。

Rubin GPU技(ji)术上由两个独(du)立芯片组成,通过英(ying)伟达的(de)NV-HBI(High Bandwidth Interface)技(ji)术以超高(gao)带宽互联,工作(zuo)时表现为单一逻(luo)辑单元。其核心规格包括支撑高(gao)达288GB的(de)HBM3e内存(高(gao)带宽内存第三代增强版),带宽达每(mei)秒(miao)5TB,比Blackwell的(de)HBM3内存(141GB,带宽4TB/s)提升显著。

在推理任务中,Rubin可实现50 petaflops的(de)性能(每(mei)秒(miao)5?10??次浮点运算),是当前Blackwell芯片(20 petaflops)的(de)两倍多。这一提升得益于其新增的(de)Tensor Core单元,专为矩(ju)阵运算优化,加(jia)速深度学习模型的(de)推理和训练。

Rubin的(de)目(mu)标客户包括AMAZON和MicroSoft等云服务商和AI研(yan)究机构。其高(gao)内存容量(liang)和计算能力特别适(shi)合运行大型语言模型(如Llama 3或Grok),这些(xie)模型通常需要(yao)数(shu)百GB内存来存储权(quan)重(zhong)和中间结果。英(ying)伟达还展示了Rubin支撑的(de)新App工具(ju)包Dynamo,可动态优化多GPU协同工作(zuo),进一步提升性能。

除了Rubin之后,黄仁勋还宣(xuan)布英(ying)伟达计划在2027年下半年推出”Rubin Ultra”,将四个GPU芯片集成于单一封装,性能高(gao)达100 petaflops。

Rubin Ultra采用名为NVLink 5.0的(de)下一代互联技(ji)术,芯片间带宽预(yu)计达每(mei)秒(miao)10TB,比NVLink 4.0(600GB/s)提升一个数(shu)量(liang)级。这种设计允许将多个Rubin Ultra组合成超级计算集群,如Vera Rubin NVL144机架(含144个GPU),为超大规模AI训练提供支撑。

Rubin Ultra的(de)每(mei)个GPU核心预(yu)计包含超过200亿个晶体管(guan),采用2nm工艺制造(zao),功耗控制在约800W以内(相比Blackwell单芯片700W)。其内存支撑升级至HBM4,提供高(gao)达576GB容量(liang),带宽预(yu)计达每(mei)秒(miao)8TB/s。这种配置使其能处理复杂的(de)生成式AI任务,如实时视频生成或多模态模型推理。

虽然Rubin两款处理器堪称怪兽级别,但市场需要(yao)等到(dao)明后年才能部署。英(ying)伟达计划今年下半年推出当前Blackwell系列的(de)增强版产品——Blackwell Ultra。

Blackwell Ultra提供多种配置,包括:

- 单芯片版本(B300):20 petaflops性能,288GB HBM3e内存;

- 双芯片版本(GB300):搭配Arm CPU,功耗约1kW;

- 机架版本:含72个Blackwell芯片,适(shi)用于数(shu)据中心。

Blackwell Ultra的(de)亮(liang)点是内存升级(从192GB增至288GB)和更高(gao)的(de)token生成速率。英(ying)伟达称,其每(mei)秒(miao)可生成更多AI输出(如文本或图像),适(shi)合时间敏感的(de)应用。云服务商可利用其提供高(gao)级AI服务,潜在收入可能是2023年Hopper芯片的(de)50倍。

此外,黄仁勋还透露(lu),英(ying)伟达计划在2028年将推出以物理学家理查德·费曼(Richard Feynman)命名的(de)Feynman GPU。Feynman将延续Vera CPU设计,但架构细(xi)节(jie)未公开。预(yu)计其将采用1.5nm工艺,性能可能突破200 petaflops,目(mu)标是支撑下一代AI代理模型,如具(ju)备推理能力的(de)自主系统。

黄仁勋强调,英(ying)伟达已(yi)从两年一次的(de)架构更新转向每(mei)年更新发布的(de)节(jie)奏,以应对AI需求的(de)“超加(jia)速”增长。自2022年底ChatGPT发布以来,英(ying)伟达销售额激增六倍,其GPU占据AI训练市场超过八成的(de)市场份(fen)额。

上月底发布的(de)第四季度财报显示,英(ying)伟达当季收入达到(dao)393亿美(mei)元,环比增长12%,同比增长78%。全(quan)年收入为1305亿美(mei)元,同比增长114%。其中数(shu)据中心收入为356亿美(mei)元,占总收入的(de)91%,较上一季度增长16%,同比增长93%。这一增长不仅来自Hopper GPU的(de)持续销售,还包括Blackwell芯片的(de)初步贡献。

首款开源人形机器人模型

黄仁勋还在主题演讲中,正式发布了NVIDIA Isaac GR00T N1,宣(xuan)布“机器人的(de)时代已(yi)经(jing)到(dao)来”,这是全(quan)球首款开源的(de)人形机器人基础模型。这是英(ying)伟达“Project GR00T”项目(mu)的(de)最(zui)新成果,基于其在2024年GTC大会上首次推出的(de)机器人研(yan)究项目(mu)。

N1代表“第一代”,是英(ying)伟达专为加(jia)速人形机器人开发设计的(de)通用AI模型。与传统机器人依赖特定任务编程不同,GROOT N1是一个“通才模型”(generalist model),能够处理多种任务并(bing)适(shi)应不同的(de)人形机器人形态。

该模型使用真实数(shu)据和合成数(shu)据(synthetic data)混合训练,其中合成数(shu)据由英(ying)伟达的(de)Omniverse平台生成。这种方法大幅降低了现实世界(jie)数(shu)据采集的(de)成本和时间。GROOT N1以开源形式发布,开发者可通过Hugging Face和GitHub下载其训练数(shu)据和任务评估场景。这种开放性旨在推动全(quan)球机器人社区(qu)的(de)协作(zuo)创新。

黄仁勋在主题演讲中现场演示展示了GROOT N1的(de)商用实力:

1X NEO Gamma:1X企业的(de)NEO Gamma人形机器人使用GROOT N1的(de)后期训练策略(post-trained policy),展示了自主整理家居的(de)能力。1X CEO Bernt B

?rnich称:“GROOT N1在机器人推理和技(ji)能上的(de)突破,让大家仅用少量(liang)数(shu)据就(jiu)实现了全(quan)面部署。”

迪士尼BDX机器人:两台受《星球大战》启发的(de)BDX机器人(昵称“Green”和“Orange”)在台上跟随黄仁勋移动,并(bing)对他的(de)指令(如“现在不是吃饭时间”)做出点头回应,展现了自然语言理解和动作(zuo)协调能力。

黄仁勋在演讲中指出,GROOT N1的(de)发布不仅是技(ji)术突破,也是对未来机器人产业的(de)战略布局。他预(yu)测,人形机器人市场在未来十年可能达到(dao)380亿美(mei)元,尤其在工业、制造(zao)和服务领(ling)域。他表示:“GROOT N1和新的(de)数(shu)据生成框架将开启AI时代的(de)新前沿。”

AI点餐带入连锁餐厅

在此次大会上,黄仁勋还宣(xuan)布了英(ying)伟达与全(quan)球餐饮巨头百胜餐饮(Yum! Brands)的(de)战略合作(zuo),百胜旗(qi)下的(de)墨西哥风味餐厅Taco Bell将率先引入AI优化得来速服务(Drive Thru,不下车语音点餐)。

目(mu)前,数(shu)百家Taco Bell餐厅已(yi)使用英(ying)伟达提供的(de)语音AI系统接受订单。百胜餐饮计划从2025年第二季度起,将该技(ji)术推广至约500家餐厅,包括必胜客、肯德基和Habit Burger and Grill。

英(ying)伟达为Taco Bell定制了基于Transformer架构的(de)语音识别模型,运行于边(bian)缘设备(如Nvidia Jetson平台)。该系统支撑实时语音转文本(ASR)和自然语言处理(NLP),延迟低至200毫秒(miao)。

百胜餐饮高(gao)管(guan)先容了英(ying)伟达技(ji)术如何给自己服务带来提升:AI将升级为视觉+语音系统,利用摄(she)像头和英(ying)伟达GPU分析排队车辆(liang)数(shu)量(liang)。例如,当检测到(dao)五辆(liang)车排队时,AI可建(jian)议快速出餐的(de)选项(如Taco而非复杂的(de)Burrito),缩短平均等待时间(目(mu)标从180秒(miao)降至120秒(miao))。英(ying)伟达的(de)推理加(jia)速技(ji)术(如TensorRT)将支撑这些(xie)实时决策。

英(ying)伟达并(bing)不是最(zui)先尝试将AI带入快餐行业的(de)巨头。早在2021年,IBM就(jiu)和麦当劳合作(zuo),在100多家餐厅测试AI语音点餐,但使用体验还存在诸多问(wen)题,经(jing)常会有听错(cuo)点餐的(de)情况(kuang),准确率只有80%左右,双方已(yi)经(jing)在2024年结束了测试合作(zuo)。

与百胜餐饮合作(zuo)是英(ying)伟达将AI带入快餐行业服务的(de)第一步,他们显然也汲取了IBM的(de)测试经(jing)验。英(ying)伟达零售业务发展总监安德鲁·孙(sun)指出,AI需兼顾速度与质量(liang),避免给用户带来偏差,成为社交网络笑柄。百胜餐饮高(gao)管(guan)强调,员(yuan)工和顾客的(de)信任至关(guan)重(zhong)要(yao):“通用大模型不够好,大家需要(yao)定制化解决方案。”例如,Taco Bell的(de)AI需理解品牌学问,而非机械实行标准流程。

对DeepSeek赞不绝(jue)口

值得一提的(de)是,黄仁勋在主题演讲中,对来自中国的(de)AI企业DeepSeek赞不绝(jue)口,给予了极高(gao)的(de)评价(jia),多次强调DeepSeek不会给英(ying)伟达带来冲击。黄仁勋在演讲中称赞DeepSeek的(de)R1模型为“卓越的(de)创新”(excellent innovation)和“世界(jie)级的(de)开源推理模型”(world-class open-source reasoning model)。

今年1月DeepSeek发布R1模型之后,以极低的(de)训练成本提供了媲美(mei)甚至优于OpenAI的(de)性能,震撼了整个美(mei)国AI行业,甚至一度导(dao)致(zhi)芯片行业股价(jia)大跌。因(yin)为如果DeepSeek得以普(pu)及,AI行业就(jiu)不一定需要(yao)疯狂军备竞赛囤积英(ying)伟达的(de)AI处理器了。

黄仁勋特别反(fan)驳了市场早前的(de)恐慌,即DeepSeek的(de)高(gao)效(xiao)模型会降低对英(ying)伟达芯片的(de)需求。黄仁勋提到(dao),DeepSeek R1发布后(2025年1月),市场曾误认(ren)为AI硬件需求会减少,导(dao)致(zhi)英(ying)伟达市值一度暴跌6000亿美(mei)元。他对此说明称,“市场认(ren)为’AI完成了’,大家不再需要(yao)更多计算资源。这种想法完全(quan)错(cuo)误,恰恰相反(fan)。”

他强调,DeepSeek R1代表的(de)“推理型AI”(reasoning AI)同样需要(yao)对很高(gao)的(de)计算能力。他说明说,与传统观(guan)念认(ren)为AI仅需预(yu)训练后即可直接推理不同,推理型模型需要(yao)大量(liang)后期训练和实时算力支撑。他表示:“推理是一个相当耗费计算资源的(de)过程。像DeepSeek这样的(de)模型可能需要(yao)比传统模型多100倍的(de)计算能力,未来的(de)推理模型需求还会更高(gao)。”

他指出,DeepSeek的(de)成功表明高(gao)效(xiao)模型与强大算力的(de)结合是未来趋势(shi),而英(ying)伟达的(de)芯片(如Blackwell Ultra)正是为此定制的(de)。他还幽默地称:“DeepSeek点燃了全(quan)球热情,这对大家是好消息(xi)。”英(ying)伟达已(yi)与包括Meta、GOOGLE和AMAZON在内的(de)客户加(jia)大投资,确保其芯片满足日(ri)益增长的(de)AI基础设施需求。

他指出,R1的(de)发布不仅没有削弱英(ying)伟达的(de)市场地位(wei),反(fan)而推动了全(quan)球对AI的(de)热情。“几(ji)乎每(mei)个AI开发者都在使用R1,这表明其影响力正在扩大AI的(de)采用范围。”

黄仁勋因(yin)此透露(lu),英(ying)伟达已(yi)经(jing)将DeepSeek R1作(zuo)为新品基准测试的(de)一部分。例如,他提到(dao)Blackwell Ultra芯片在设计时优化了推理任务,能更高(gao)效(xiao)地运行R1这类模型。他具(ju)体指出:“Blackwell Ultra的(de)Tensor Core经(jing)过调整,支撑高(gao)密度矩(ju)阵运算,每(mei)秒(miao)token生成率显著提升,非常适(shi)合推理型AI。”

面对DeepSeek引发的(de)竞争压力,黄仁勋淡化了对英(ying)伟达的(de)威胁。他在演讲中说:“DeepSeek展示了模型可以更高(gao)效(xiao),但这并(bing)不意味着硬件需求减少。相反(fan),它让所有人意识到(dao),高(gao)效(xiao)模型需要(yao)更强的(de)计算支撑。”

新推理模型秒(miao)杀DeepSeek

盛赞完DeepSeek,黄仁勋又宣(xuan)布推出了一款基于Llama的(de)新推理模型——Nvidia Llama Nemotron Reasoning。他将这一模型描述为“一个任何人都能运行的(de)令人难以置信的(de)新模型”,并(bing)强调其在企业AI应用中的(de)潜力。这一发布标志着英(ying)伟达在AI模型开发领(ling)域的(de)进一步扩展,从硬件供应商向App与模型生态的(de)全(quan)面参(can)与者转型。

黄仁勋特别强调了Nvidia Llama Nemotron Reasoning在准确性和速度上的(de)卓越表现,声称其“大幅超越”(beats substantially)中国AI企业DeepSeek的(de)R1模型。

Nvidia Llama Nemotron Reasoning是英(ying)伟达Nemotron模型家族的(de)新成员(yuan)。Nemotron系列最(zui)初设计用于增强AI代理的(de)能力,尽管(guan)“AI代理”这一概念在行业中仍未完全(quan)明确定义。通常,AI代理被理解为能够自主实行任务、推理并(bing)与环境交互的(de)智能系统,例如客服机器人或自动化助手。黄仁勋在演讲中并(bing)未详细(xi)说明“AI代理”的(de)具(ju)体含义,但暗示Nemotron Reasoning将为企业提供更强大的(de)推理能力,支撑复杂决策和任务处理。

该模型基于Meta开源的(de)Llama架构,但经(jing)过英(ying)伟达的(de)深度定制和优化。Llama作(zuo)为一个高(gao)效(xiao)、开源的(de)大语言模型基础,近年来被广泛用于学术和商业领(ling)域,而英(ying)伟达通过其算力优势(shi)和App生态(如TensorRT和Dynamo)对Llama进行了性能提升,使其适(shi)配企业级应用。

Llama Nemotron家族模型将与DeepSeek竞争,为高(gao)级代理提供企业就(jiu)绪的(de)AI推理模型。顾名思义,Llama Nemotron基于Meta的(de)开源Llama模型。英(ying)伟达通过算法修剪了模型,以优化计算需求,同时保持准确性。

英(ying)伟达还应用了复杂的(de)后期训练技(ji)术,使用合成数(shu)据进行训练。训练过程涉及36万(wan)个H100推理小时和4.5万(wan)个小时的(de)人工标注,以增强推理能力。据英(ying)伟达称,所有这些(xie)训练造(zao)就(jiu)了在数(shu)学、工具(ju)调用、指令遵循和对话任务等关(guan)键基准测试中具(ju)有卓越推理能力的(de)模型。

来源:新浪网

【免责声明】本文仅代表作(zuo)者本人观(guan)点,与和讯网无关(guan)。和讯网站对文中陈述、观(guan)点判断保持中立,不对所包含内容的(de)准确性、可靠性或完整性提供任何明示或暗示的(de)保证。请读者仅作(zuo)参(can)考,并(bing)请自行承担全(quan)部责任。邮箱:news_center@staff.hexun.com

最新资讯
  • 仙游县
  • 瑞昌市横港镇
  • 建德市寿昌镇
  • 仁寿县中农镇
  • 广安区肖溪镇
  • 两当县
  • 大田县石牌镇
  • 东港区两城镇
  • 遵义县芝麻镇
  • 莒南县汀水镇
  • 蓝山县
  • 河南中青综合资讯
  • 游戏百科综合资讯
  • 快云游综合资讯
  • 快云综合资讯
  • 久诚汽车资讯
  • 癫痫百科
  • 体育百科资讯
  • App百科资讯
  • sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7
    XML 地图 | Sitemap 地图