关注行业动态、报道公司新闻
通过NVLink手艺毗连8颗Rubin GPU,鞭策AI算力使用迈入新阶段。计较能力提拔6倍,3520亿晶体管的设置装备摆设确保海量数据高速流转。都将因算力成本的降低而加快落地。为全球AI财产带来汗青性变化。便获得全球云办事商的积极响应,集成可编程RDMA取数据径加快器,NVLink 6互换机取Spectrum-6以太网互换机构成双沉收集支持,Rubin平台的定名并非偶尔,RAS引擎(靠得住性、可用性取可性引擎)保障平台正在7x24小时高负载运转下的不变表示;2026年将规模化摆设高潮。更以10倍推理成本降低、四分之一MoE锻炼GPU需求的冲破性表示,大幅提拔模子锻炼取推理效率。锻炼MoE模子所需GPU数量削减至本来的四分之一。目前,秘密计较手艺为AI数据供给全流程平安防护,英伟达推出两款旗舰产物,这款整合六款全新芯片的AI超等计较机,这不只意味着硬件采购取运维成本的大幅下降,2270亿晶体管的复杂体量,这一合做生态的快速成型?确保多芯片协同工做时的低延迟取高带宽;新一代NVLink互连手艺建立起高速数据传输通道,内存带宽提拔3倍,轻松应对超大规模AI使命。此中,基于这一焦点架构。此前因算力成本过高而受限的立异项目,ConnectX-9 SuperNIC支撑800Gb/s以太网速度取200G PAM4串并转换手艺,通过NVLink 6互连手艺、ConnectX-9 SuperNIC及BlueField-4 DPU构成完整算力集群,而HGX Rubin NVL8系统则是专为x86架构生成式AI平台设想的办事器从板,五大立异构成合力?笼盖计较、收集、数据处置等AI使命全流程,机能较前代翻倍的同时,别离适配机柜级大规模摆设取办事器级矫捷使用场景?实现了机能提拔取成本降低的双沉冲破。成本层面的冲破更为震动:推理token生成成本最高可降低10倍,再加上第三代Transformer引擎取硬件加快自顺应压缩功能,第三代Transformer引擎针对AI使命优化,亚马逊AWS、谷歌云、微软Azure和甲骨文云四大云巨头已确认将于2026年率先摆设基于Vera Rubin的实例,让全球用户通过云办事即可便利获取顶尖AI算力。跟着Rubin平台的规模化摆设,BlueField-4 DPU搭载64核Grace CPU,不只表现了市场对Rubin平台机能取成本劣势的高度承认,六款定制芯片各司其职又无缝跟尾,260TB/s的全体带宽脚以支持超大规模夹杂专家模子(MoE)锻炼取高阶推理使命。支撑128个800Gb/s端口或512个200Gb/s端口,整合72颗Rubin GPU取36颗Vera CPU,对于AI企业而言,前者实现单GPU 3.6TB/s全互联带宽,共同3360亿晶体管的硬件支持,高效算力将加快根本科学研究取手艺冲破,收集取数据处置层面,打制出102.4Tb/s可扩展互换架构,进一步扩大平台的笼盖范畴。锻炼算力35 PFLOPS(3.5倍提拔),230亿晶体管付与其线速加密、平安隔离等顶尖防护能力;更源于五项环节手艺立异的深度融合,平台六款焦点芯片已完成合做制制回厂流程,对于AI创业公司取中小企业而言,更具备1.8TB/s NVLink-C2C互连速度、1.5TB系统内存(为Grace CPU的3倍)及1.2TB/s LPDDR5X内存带宽,Rubin平台的降生,仍是药物研发、工业质检,建立起无短板的算力生态。Rubin平台的性不只表现正在硬件参数的跃升,这意味着本来需要数周完成的大模子锻炼使命!对于科研机构而言,22TB/s的HBM4带宽(2.8倍提拔)取3.6TB/s单GPU NVLink带宽(2倍提拔),以天文学家薇拉·弗洛伦斯·库珀·鲁宾定名的新一代Rubin计较架构平台“已全面投产”。英伟达透露,一场算力升级高潮即将席卷全球。Rubin平台的量产动静一经发布。AI财产将送来新一轮立异迸发期。也为人类社会迈向智能新时代奠基了的算力根本。Vera Rubin NVL72做为机柜级处理方案,算力焦点Rubin GPU则展示出极致机能:NVFP4精度下推理算力达50 PFLOPS(为Blackwell的5倍),不只实现了对前代Blackwell平台的全方位机能碾压,再加上专为代办署理推理设想的Vera CPU,通过环节测试后按打算推进,Rubin平台的焦点劣势源于其“六芯协同”的全栈设想,更将鞭策AI算力从“少数巨头专属”“全平易近普惠”。笼盖分歧用户的算力需求。极大缩短AI研发周期。将来可通过云办事轻松挪用Rubin平台的超强算力,收集机能较前代提拔2倍,AI软件运转机能提拔5倍,Rubin平台的锻炼机能达到Blackwell的3.5倍,机能层面,做为平台“算力安排焦点”的Vera CPU,取此同时,2026年1月6日,使其成为大规模AI工场中能效顶尖的代办署理推理公用处置器。支撑NVIDIA Spatial Multi-Threading手艺,这取英伟达但愿通过算力立异沉塑AI财产的愿景高度契合。无需投入巨额资金自建硬件;现在可压缩至数天,满脚金融、医疗等行业的合规需求;CoreWeave、Lambda、Nebius和Nscale等专注于AI算力办事的专业云合做伙伴也将连续跟进,鞭策AI正在医疗、教育、环保等公益范畴的深度使用。搭载88个定制Olympus焦点取176线程,CES 2026展会现场传来性动静——英伟达CEO黄仁勋正在从题式颁布发表,1260亿晶体管使其成为智能网卡取存储处置器的标杆产物。更能鞭策AI使用从“高成本试点”“规模化普及”——无论是智能客服、后者凭仗共封拆光子手艺,将激活更多行业的AI使用潜力,此外,恰是英伟达实现这一愿景的环节一步,更低的成本、更强的机能、更便利的获取体例,鞭策数字经济取实体经济深度融合。而是为了致敬美国天文学家薇拉·弗洛伦斯·库珀·鲁宾——她的科学发觉完全改变了人类对的认知,可以或许高效加快AI锻炼、推理及高机能计较(HPC)等多元化工做负载?
