英偉達罕見不發顯卡,剛剛黃仁勳帶着2.5噸新「核彈」炸場,DeepSeek又被點名

愛範兒 於 2 天前發表 收藏文章
這是英偉達 5 年來,第一次在 CES 上沒發消費級顯卡。

CEO 黃仁勳闊步走向 NVIDIA Live 的舞台中央,還是去年那件亮面鱷魚皮衣。


與去年單獨主旨演講不同,2026 年的黃仁勳密集趕場。從 NVIDIA Live 到西門子工業 AI 對話,再到聯想 TechWorld 大會,48 小時內橫跨三場活動。

上一次,他在 CES 發佈了 RTX 50 系列顯卡,而這一次,物理 AI 和機器人技術成為了全新的主角。

Vera Rubin 計算平台登場,依舊是買越多省越多

發佈會期間,愛整活的老黃直接把一台 2.5 噸重的 AI 服務器機架搬上了舞台,也因此引出了本次發佈會的重點:Vera Rubin 計算平台,以發現暗物質的天文學家命名,目標只有一個:
加速 AI 訓練的速度,讓下一代模型提前到來。


通常來説,英偉達內部有個規矩:每代產品最多隻改 1-2 顆芯片。但這次 Vera Rubin 打破了常規,一口氣重新設計了 6 款芯片,並全面進入生產階段。

究其原因,伴隨着摩爾定律的放緩,傳統性能提升方式已經跟不上 AI 模型每年 10 倍的增長速度,所以英偉達選擇了「極致協同設計」——在所有芯片、整個平台各個層級上同時創新。


這 6 款芯片分別是:

1. Vera CPU:

– 88 個 NVIDIA 定製 Olympus 核心

– 採用 NVIDIA 空間多線程技術,支持 176 個線程

– NVLink C2C 帶寬 1.8 TB/s

– 系統內存 1.5 TB(為 Grace 的 3 倍)

– LPDDR5X 帶寬 1.2 TB/s

– 2270 億個晶體管


2. Rubin GPU:

– NVFP4推理算力50PFLOPS,是前代 Blackwell的5倍

– 擁有 3360 億晶體管,比 Blackwell 晶體管數量增加了 1.6 倍

– 搭載第三代Transformer引擎,能根據 Transformer 模型需求動態調整精度


3. ConnectX-9 網卡:

– 基於 200G PAM4 SerDes 的 800 Gb/s 以太網

– 可編程 RDMA 與數據通路加速器

– 通過 CNSA 與 FIPS 認證

– 230 億個晶體管


4. BlueField-4 DPU:

– 專為新一代 AI 存儲平台而構建的端到端的引擎

– 面向 SmartNIC 與存儲處理器的 800G Gb/s DPU

– 搭配 ConnectX-9 的 64 核 Grace CPU

– 1260 億個晶體管


5. NVLink-6 交換芯片:

-連接 18 個計算節點,支持最多 72 個 Rubin GPU 像一個整體協同運行

– 在 NVLink 6 架構下,每個 GPU 可獲得 3.6 TB 每秒的 all-to-all 通信帶寬

– 採用 400G SerDes,支持 In-Network SHARP Collectives,可在交換網絡內部完成集合通信操作


6. Spectrum-6 光以太網交換芯片

– 512 通道,每通道 200Gbps,實現更高速數據傳輸

– 集成台積電 COOP 工藝的硅光子技術

– 配備共封裝光學接口(copackaged optics)

– 3520 億個晶體管


通過 6 款芯片的深度整合,Vera Rubin NVL72 系統性能比上一代 Blackwell 實現了全方位的提升。

在 NVFP4 推理任務中,該芯片達到了 3.6 EFLOPS 的驚人算力,相比上一代 Blackwell 架構提升了 5 倍。在 NVFP4 訓練方面,性能達到 2.5 EFLOPS,實現 3.5 倍的性能提升。

存儲容量方面,NVL72 配備了 54TB 的 LPDDR5X 內存,是前代產品的 3 倍。HBM(高帶寬內存)容量達到 20.7TB,提升 1.5 倍。在帶寬性能上,HBM4 帶寬達到 1.6 PB/s,提升 2.8 倍;Scale-Up 帶寬更是高達 260 TB/s,實現了 2 倍增長。

儘管性能提升如此巨大,晶體管數量只增加了 1.7 倍,達到 220 萬億個,展現了半導體制造技術上的創新能力。

工程設計上,Vera Rubin 同樣帶來了技術突破。

以前的超算節點要接 43 根線纜,組裝要 2 小時,還容易裝錯。現在 Vera Rubin 節點採用 0 根線纜,只有 6 根液冷管線,5 分鐘搞定。

更誇張的是,機架後面佈滿了總長近 3.2 公里的銅纜,5000 根銅纜構成 NVLink 主幹網絡,實現 400Gbps 傳輸速度,用老黃的話來説,:「可能有幾百磅重,你得是體格很好的 CEO 才能勝任這份工作」。

在 AI 圈裏時間就是金錢,一個關鍵數據是,訓練一個 10 萬億參數模型,Rubin 只需 Blackwell 系統數量的 1/4,生成一個 Token 的成本約為 Blackwell 的 1/10。


此外,雖然 Rubin 的功耗是 Grace Blackwell 的 2 倍,但性能提升遠超功耗增長,整體推理性能提升 5 倍,訓練性能提升 3.5 倍。

更重要的是,Rubin 相比 Blackwell 吞吐量(每瓦-每美元可完成的 AI Token 數)提升10倍,對於造價 500 億美元的千兆瓦數據中心來説,這意味着營收能力將迎來直接翻倍。

過去 AI 行業的最大痛點是,上下文內存不夠用。具體來説,AI 在工作時會生成「KV Cache」(鍵值緩存),這是 AI 的「工作記憶」。問題是,隨着對話變長、模型變大,HBM 內存顯得有些捉襟見肘。


去年英偉達推出 Grace-Blackwell 架構擴展內存,但還是不夠。而Vera Rubin 的方案是在機架內部署 BlueField-4 處理器,專門管理 KV Cache。

每個節點配 4 個 BlueField-4,每個背後有 150TB 上下文內存,分配到 GPU 上,每塊 GPU 額外獲得 16TB 內存——而 GPU 自帶內存只有約 1TB,關鍵是帶寬保持 200Gbps,速度不打折。

但僅有容量還不夠,要讓分佈在幾十個機架、上萬塊 GPU 上的「便籤」像同一塊內存那樣協同,網絡必須同時做到「夠大、夠快、夠穩」。這就輪到 Spectrum-X 登場了。

Spectrum-X 是英偉達推出的全球首款「專為生成式 AI 設計」的端到端以太網網絡平台,最新一代的 Spectrum-X 採用台積電 COOP 工藝,集成硅光子技術,512 通道×200Gbps 速率。

老黃算了筆賬:一個千兆瓦數據中心造價 500 億美元,Spectrum-X 能帶來 25% 吞吐提升,相當於節省 50 億美元。「你可以説這個網絡系統幾乎是『白送』的。」

安全方面,Vera Rubin 還支持保密計算(Confidential Computing)。所有數據在傳輸、存儲、計算過程中全程加密,包括 PCIe 通道、NVLink、CPU-GPU 通信等所有總線。

企業可以放心把自己的模型部署到外部系統,不用擔心數據泄露。

DeepSeek 震驚了世界,開源和智能體是 AI 主流

重頭戲看完,回到演講開始。黃仁勳一上台就拋出了一個驚人的數字,過去十年投入的約 10 萬億美元計算資源,正在被徹底現代化。

但這不僅僅是硬件的升級,更多的是軟件範式的轉移。他特別提到了具備自主行為能力(Agentic)的智能體模型,並點名了 Cursor,徹底改變了英偉達內部的編程方式。


最讓現場沸騰的,是他對開源社區的高度評價。黃仁勳直言,去年 DeepSeek V1 的突破讓全世界感到意外,它作為第一個開源推理系統,直接激發了整個行業的發展浪潮。PPT 上,我們熟悉的國產玩家 Kimi k2 和 DeepSeek V3.2 分別是開源第一和第二。

黃仁勳認為,雖然開源模型目前可能落後最頂尖模型約六個月,但每隔六個月就會出現一個新模型。

這種迭代速度讓初創公司、巨頭、研究人員都不願錯過,包括英偉達在內。

所以,他們這次也沒有隻賣鏟子,推銷顯卡;英偉達構建了價值數十億美元的 DGX Cloud 超級計算機,開發了像 La Proteina(蛋白質合成)和 OpenFold 3 這樣的前沿模型。

▲ 英偉達開源模型生態系統,涵蓋了生物醫藥、物理 AI、智能體模型、機器人以及自動駕駛等

而英偉達 Nemotron 模型家族的多款開源模型,也成為這次演講的亮點。其中包含語音、多模態、檢索生成增強以及安全等多個方面的開源模型,黃仁勳也提到,Nemotron 開源模型在多個測試榜單上表現優秀,並且正在被大量的企業採用。

物理 AI 是什麼,一口氣連發幾十款模型

如果説大語言模型解決了「數字世界」的問題,那麼英偉達的下一個野心,很明顯是要征服「物理世界」。黃仁勳提到,要讓 AI 理解物理法則,並在現實中生存,數據是極其稀缺的。

在智能體開源模型 Nemotron 之外,他提出了構建物理 AI(Physical AI)的「三台計算機」核心架構。


  • 訓練計算機,也就是我們熟知的,由各種訓練級顯卡構建的計算機,像圖片中提到的 GB300 架構。
  • 推理計算機,運行在機器人或汽車邊緣端的「小腦」,負責實時執行。
  • 模擬計算機,包括 Omniverse 和 Cosmos,它能為 AI 提供一個虛擬的訓練環境,讓它在模擬中學習物理反饋。

▲ Cosmos 系統能生成大量的物理世界 AI 訓練環境

基於這套架構,黃仁勳正式發佈了震驚全場的 Alpamayo,全球首個具備思考和推理能力的自動駕駛模型。


與傳統自動駕駛不同,Alpamayo 是端到端訓練的系統。它的突破性在於解決了自動駕駛的「長尾問題」。面對從未見過的複雜路況,Alpamayo 不再是死板地執行代碼,而是能像人類司機一樣進行推理。

「它會告訴你接下來會做什麼,以及它為什麼會做出這樣的決策」。在演示中,車輛的駕駛方式驚人地自然,能夠將極端複雜的場景,拆解為基礎常識來處理。

演示之外,這一切也不是紙上談兵。黃仁勳宣佈,搭載 Alpamayo 技術棧的奔馳 CLA,將在今年第一季度於美國正式上線,隨後陸續登陸歐洲和亞洲市場。


這輛車被 NCAP 評為全球最安全的汽車,底氣就是來自於英偉達獨特的「雙重安全棧」設計。當端到端的 AI 模型對路況信心不足時,系統會立即切換回傳統的、更穩妥的安全防護模式,確保絕對安全。

發佈會上,老黃還特地展示了英偉達的機器人戰略。

▲九大頂級 AI 及相關硬件製造商之間的競爭,他們都在擴大產品線,尤其是要搶奪機器人賽道,高亮的單元格為自去年以來的新產品

所有機器人都將搭載 Jetson 小型計算機,在Omniverse 平台的 Isaac 模擬器中接受訓練。並且英偉達正在把這套技術整合進Synopsys、Cadence、西門子等工業體系。

▲ 黃仁勳邀請了包括波士頓動力、Agility 等人形機器人、四足機器人「登台」,他強調,最大的機器人其實是工廠本身

自下而上,英偉達的願景是,未來芯片設計、系統設計、工廠仿真,都將由英偉達物理 AI 加速。發佈上,又是迪士尼機器人閃亮登場,老黃還因此對着這羣超萌機器人調侃道:

「你們會在計算機中被設計、在計算機中被製造,甚至在真正面對重力之前,就會在計算機中被測試和驗證。」


如果不説是黃仁勳,整場主題演講看下來甚至會以為是某個模型廠商的發佈會。

在 AI 泡沫論甚囂塵上的今天,除了摩爾定律的放緩,黃仁勳似乎也需要用 AI 到底能做什麼,來提升我們每個人對 AI 的信心。

除了發佈全新 AI 超算平台 Vera Rubin 的強悍性能,來安撫算力飢渴,他在應用和軟件上也比以往花了更多的功夫,拼盡全力讓我們看到,AI 將會帶來哪些直觀改變。

此外,就像黃仁勳説的一樣,過去他們為虛擬世界造芯,現在他們也下場親自演示,將注意力放在以自動駕駛、人形機器人為代表的物理 AI,走進行業競爭更激烈的真實物理世界。

畢竟,只有仗打起來,軍火才能持續賣下去。

文|莫崇宇、張子豪、姚桐


資料來源:愛範兒(ifanr)
標籤: 英偉達  黃仁勳  

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→