輝達(NVIDIA)執行長黃仁勳在CES特別演講中,正式揭示新一代 Vera Rubin 平台已進入全面量產階段,並完整說明此世代背後的系統級變革。黃仁勳直言,面對模型規模、推論 token 與訓練強度呈指數級暴增,單靠製程微縮已無法支撐效能曲線,「這一代我們別無選擇,只能重新設計六大關鍵晶片,以極限co-design 同步推進整個運算堆疊。」

黃仁勳指出,Vera Rubin 並非單一 GPU 升級,而是一套橫跨 CPU、GPU、互連、網路、DPU 與交換晶片的整體平台。核心包括全新 Vera CPU 與 Rubin GPU,前者以 88 核心、176 執行緒的空間多執行緒設計,強化單執行緒與 I/O 能力;後者在僅約 1.6 倍電晶體成長下,卻實現 5 倍推論、3.5 倍訓練的峰值效能躍升,關鍵在於 NVFP4 Tensor Core 等硬體級精度動態調整,將以往難以軟體化的運算效率直接內嵌於晶片之中。
在系統層,Vera Rubin 採用 NVLink 72 與新一代 Spectrum-X AI 乙太網路,並結合 BlueField-4 DPU,將 east-west 與 north-south 流量分流處理;同時單顆 GPU 可擴展至額外16 TB,直指生成式 AI 長上下文與測試時擴展(test-time scaling)的瓶頸。黃仁勳形容,這不僅是效能競賽,更是資料中心投資回報率的分水嶺。
值得注意的是,Vera Rubin 在散熱與能效上同樣翻轉既有想像。平台全面液冷,無需冷卻機組,即便整體功耗倍增,氣流與水溫條件卻與前代相當,估算可為全球資料中心節省約 6% 用電。同時,全系統匯流排(PCIe、NVLink、CPU-GPU)皆支援全程加密,滿足企業級機密運算需求。

黃仁勳點名,台積電為 Vera Rubin 幕後關鍵推手之一。輝達與台積電在製程、封裝到光電整合展開深度 co-design,並以其 COUPE 技術,將矽光子(Silicon Photonics)直接整合至交換晶片,打造 512 埠、200Gbps 的 Spectrum-X 光電乙太網路晶片。黃仁勳強調,這類跨晶片、跨系統的協同設計,是突破摩爾定律放緩的唯一道路。
在時程上,黃仁勳明確表示,繼 GB200/GB300之後,Vera Rubin 已於今年進入量產,可即時銜接雲端與 AI 工廠部署。他以天文學家 Vera Rubin 發現暗物質的典故比喻,稱新平台正是為了解決 AI 時代「看不見、卻決定一切的運算需求」而生。
法人解讀,Vera Rubin 的全面量產,不僅鞏固輝達在 AI 訓練與推論的技術門檻,也再次凸顯台積電在先進製程、先進封裝與異質整合上的不可替代性。隨著極限 co-design 成為新常態,AI 晶片競賽已從單點效能,全面升級為「平台與供應鏈」的長期戰。(工商時報)
※更多工商時報新聞