2026 年的拉斯維加斯消費電子展 (CES),NVIDIA 創辦人暨執行長黃仁勳再次站上舞台中心宣告,以天文學家 Vera Rubin 命名的全新運算平台已全面量產,準備迎接一個算力需求呈指數級爆炸的時代。在這場長達一個半小時的演講中,黃仁勳提出了兩大同步發生的平台轉移:「代理式 AI (Agentic AI)」將重塑軟體,「實體 AI (Physical AI)」將徹底改變我們與現實世界的互動方式。
NVIDIA Live with CEO Jensen Huang

CES 2026 黃仁勳演講精華:不只發表,更是定義未來十年
以下是本次 NVIDIA 演講的四大重點:
- Vera Rubin 新世代運算平台:這不是一次單純的 GPU 升級,而是一個包含 Vera CPU、Rubin GPU、NVLink 6 交換器、ConnectX-9 網卡、BlueField-4 DPU 與 Spectrum-X 乙太網路交換器在內的六晶片「極致協同設計 (Extreme Codesign)」平台。目標是在 AI 模型每年增長 10 倍、推理 token 數每年增長 5 倍的壓力下,持續提供翻倍的效能與更低的成本。
- Alpamayo 自駕 AI 模型:全球首個具備「思考與推理」能力的自駕 AI。它不僅能根據攝影機畫面做出駕駛決策,更能用語音解釋「為何」它要這麼做。
- 實體 AI (Physical AI) 與 Cosmos 世界模型:AI 發展的下一個階段是理解物理定律。透過虛擬世界進行模擬,並以 Cosmos 世界基礎模型進行訓練,NVIDIA 讓機器人與自駕車能學會物理世界的常識(如重力、摩擦力),大幅加速其在真實世界中的學習與適應能力。
- 代理式 AI (Agentic AI) 的應用普及:未來的應用程式將建立在 AI 之上,而 AI Agent 將是核心。這些 AI 代理人能自主理解任務、規劃步驟、使用工具,甚至呼叫其他 AI 模型協同工作,從根本上改變企業軟體與個人助理的樣貌。
兩大平台轉移同時發生:AI Agent 與實體 AI 的新時代
黃仁勳在演講開頭便點出,當前電腦產業正經歷每 10 到 15 年一次的平台重置,但這一次,有兩個平台轉移正同時發生:軟體應用轉向 AI Agent,以及 AI 走向實體世界。
AI Agent 如何重塑應用程式
過去,我們認為 AI 本身就是應用程式 (例如 ChatGPT)。但新的觀念是「在 AI 之上建構應用程式」。核心概念就是「AI Agent」,一個能夠自主感知、規劃、行動的智慧體。
黃仁勳提出未來應用架構具備以下特點:
- 多模型 (Multi-model):一個 AI Agent 不會只依賴單一模型。它會像一個管理者,根據任務需求,呼叫最適當的 AI 模型。例如,處理郵件時使用本機端保護隱私的小模型,生成圖片時則呼叫雲端的頂尖繪圖模型。
- 多模態 (Multi-modal):AI 能理解與生成的資訊格式不再局限於文字,而是涵蓋了語音、圖像、影片、3D 圖形,甚至是蛋白質結構。
- 混合雲 (Hybrid Cloud):運算可以在任何地方發生,從邊緣裝置(如手機或汽車)、企業內部伺服器,到公有雲。
演講中的個人助理機器人就是一個範例。使用者透過語音下達指令,助理機器人內部的 AI Agent 會判斷意圖:需要處理私人郵件時,它會使用本地部署在 DGX Spark 上的開源模型;當需要將草圖轉為建築渲染圖時,它則呼叫雲端的 Frontier 模型 API。這個架構讓開發者能同時兼顧客製化、隱私保護與頂尖效能。
實體 AI (Physical AI) 的三大支柱
如果說 AI Agent 是軟體的未來,那實體 AI (Physical AI) 就是 AI 與現實世界互動的終極型態。黃仁勳強調,要讓 AI 走出電腦,與物理世界互動,光靠傳統的訓練方式遠遠不夠。一個成功的實體 AI 系統,必須仰賴三種關鍵的電腦:
- AI 訓練電腦:用於訓練 AI 模型的核心,也就是我們熟知的 NVIDIA GPU 超級電腦。
- AI 推理電腦:部署在終端裝置上的電腦,例如汽車內的 NVIDIA DRIVE Orin/Thor 晶片,或是機器人裡的 Jetson 平台,負責即時運算與決策。
- AI 模擬電腦:這是最關鍵也最常被忽略的一環。AI 需要一個能學習物理世界常識的地方,一個可以「安全犯錯」的沙盒。這個角色由 NVIDIA Omniverse 平台扮演。
Omniverse 是一個基於物理渲染與模擬的數位孿生平台。開發者可以在其中創建與真實世界一模一樣的虛擬環境,讓 AI 在裡面進行數百萬、甚至數十億英里的測試,而無需任何實體風險。而讓這個虛擬世界變得「有智慧」的,則是 Cosmos,一個被稱為「世界基礎模型」的 AI。Cosmos 透過學習真實世界影片、駕駛數據與 3D 模擬資料,學會物理定律,能夠從單一張圖片或一段文字,生成符合物理邏輯的動態影片與互動情境。這個正是 NVIDIA 解決實體 AI 落地難題的核心策略。
Vera Rubin 降臨:暴力美學背後的「極致協同設計」
黃仁勳坦言,AI 的發展速度已遠超半導體製程的進步速度。
- AI 模型規模每年擴大 10 倍。
- AI 從單純回答轉為「思考」,使得 Test-Time Scaling (測試時擴展) 讓 Token 生成量每年增加 5 倍。
- 產業激烈競爭,讓上一代 AI Token 的成本每年下降 10 倍。
面對這個「運算黑洞」,單靠一顆更快的 GPU 已經無濟於事。黃仁勳表示:「我們別無選擇,只能重新設計每一個晶片。」於是,Vera Rubin 平台應運而生,其核心理念是「極致協同設計 (Extreme Codesign)」。
六晶片齊發:Vera CPU、Rubin GPU 與全新互連技術
Vera Rubin 平台並非單一產品,而是一個由六款從頭設計的晶片組成的完整系統,每一個環節都為 AI 工作負載進行了深度優化:
- Vera CPU:專為 AI 工廠設計的高效能 CPU,擁有 88 個客製化核心,採用「空間多執行緒」技術,可同時處理 176 個執行緒,大幅提升資料處理與 I/O 效能。
- Rubin GPU:效能的核心。相較於 Blackwell,電晶體數量僅增加 1.6 倍,AI 峰值效能卻提升了 5 倍。關鍵在於全新的 NVFP4 Tensor Core,這是一種能根據 Transformer 模型不同層級的需求,動態調整運算精度的硬體引擎,在不犧牲準確性的前提下,極大化運算吞吐量。
- NVLink 6 交換器:第六代 GPU 互連技術,單顆 GPU 頻寬高達 3.6TB/s,單一機櫃的總交換頻寬是全球網際網路總頻寬的兩倍以上,確保 72 顆 GPU 能像單一巨型 GPU 一樣無縫協作。
- ConnectX-9 SuperNIC:負責資料中心內東西向(伺服器間)流量的高速網卡。
- BlueField-4 DPU:資料處理單元,負責卸載南北向(進出伺服器)的網路、儲存與安全管理工作,讓 CPU 與 GPU 能專注於運算。
- Spectrum-X 乙太網路交換器:全球首款整合「矽光子 (Silicon Photonics)」技術的 AI 乙太網路交換器,將光學元件直接封裝在交換器晶片旁,大幅提升頻寬密度與能源效率。
不只是晶片,更是資料中心再造:液冷、KV Cache 與機櫃革新
Vera Rubin 的革命性不僅體現在晶片層面,更在於對整個資料中心基礎設施的重新思考:
- 全面液冷與高效散熱:全新的 MGX 機櫃設計,將複雜的線纜與管線大幅簡化,組裝時間從 2 小時縮短至 5 分鐘。更重要的是,它實現了 100% 液冷,且使用的是 45°C 的溫水進行散熱,無需昂貴且耗電的冰水機組。即便單機櫃功耗翻倍,其散熱效率仍可為全球資料中心節省約 6% 的電力。
- 定義 AI 時代的新儲存:隨著 AI 對話越來越長、上下文越來越複雜,儲存 AI「工作記憶」的 KV Cache 成為了巨大的效能瓶頸。NVIDIA 為此創建了一個全新的儲存層級,利用 BlueField-4 DPU 在機櫃內建置了高速的 KV Cache 記憶體儲存池。這讓每顆 GPU 能額外存取高達 16TB 的高速記憶體,徹底解決了長上下文推理的難題。
- 企業級安全:整個 Vera Rubin 平台支援「機密運算」,從 PCIe、NVLink 到 CPU-GPU 之間的所有資料傳輸路徑皆全程硬體加密,確保企業的 AI 模型與資料安全無虞。
最終的成果是驚人的:相較於 Blackwell 平台,Vera Rubin 在訓練下一代兆級參數模型時,僅需 1/4 的系統規模;在固定的功耗預算下(例如一座 1GW 的資料中心),其 AI 推理吞吐量提升了 10 倍;而生成每個 Token 的成本,則降低了 10 倍。
Alpamayo 登場:讓車子學會「思考」與「解釋」
超越傳統自駕:Alpamayo 為何是「會思考的 AI」?
過去的自動駕駛系統,往往被視為一個黑盒子。它們能做出反應,但無法解釋原因。黃仁勳指出,Alpamayo 的最大突破在於,它是一個「會推理」的端到端 AI。
- 端到端訓練:Alpamayo 直接學習從攝影機的像素輸入,到方向盤、油門、剎車的控制輸出,中間沒有複雜的手動編寫規則。它透過觀摩人類駕駛與大量模擬數據,學習最自然、最像人的駕駛行為。
- 推理與解釋能力:這是真正的變革。在做出每一個關鍵決策前,Alpamayo 不僅會輸出駕駛動作,還會解釋它「將要採取的行動」以及「採取該行動的原因」。例如,它會說:「前方路口有行人闖入,我正在減速並向左微調,以保持安全距離。」這種可解釋性,是建立人類對 AI 信任的關鍵一步。
解決長尾問題的關鍵:Cosmos 世界模型與合成資料
自動駕駛領域最大的挑戰,是那些現實中極少發生,卻一旦發生就極其危險的極端場景(例如前方卡車掉落異物、或是在暴風雪中遇到交通號誌故障)。要收集到足夠的真實世界數據來訓練 AI 應對所有長尾情境,幾乎是不可能的。
NVIDIA 的解法,就是前述的 Cosmos 世界模型。透過強大的合成資料生成能力,開發者可以在 Omniverse 模擬器中,創造出任意數量的極端場景,讓 Alpamayo 在虛擬世界中反覆練習,直到學會如何應對。Alpamayo 的智慧,很大一部分是建立在由 Cosmos 生成的高品質、多樣化的合成資料之上。
雙堆疊安全架構:當 AI 犯錯時,誰來接手?
儘管對 Alpamayo 的能力充滿信心,NVIDIA 仍在安全性上採取了極為嚴謹的雙重保險策略。搭載 Alpamayo 的車輛內部,同時運行著兩套自動駕駛系統:
- Alpamayo AI 堆疊:基於深度學習、端到端訓練的先進 AI 系統,擁有強大的泛化與推理能力。
- 傳統備用系統:一套基於傳統規則、可追溯、經過嚴格安全認證的備用系統。
車內有一個「安全策略評估器」會持續監控 Alpamayo 的決策。在絕大多數情況下,由 Alpamayo 負責駕駛;但如果遇到 AI 置信度不高的罕見情況,或者評估器認為 Alpamayo 的決策可能帶來風險時,系統會無縫切換回更保守、更安全的傳統備用系統,作為最終的防線。這種多樣性與冗餘設計,是 NVIDIA 確保自動駕駛安全的最高指導原則。
TN科技筆記的觀點
「極致協同設計」是護城河,更是摩爾定律的延伸。NVIDIA 一次設計六款晶片並讓它們完美協同工作,這種能力本身就構成了難以逾越的技術護城河。這也代表著,當單一晶片的製程微縮效益遞減時,透過整個系統堆疊的創新,NVIDIA 正在用自己的方式延續摩爾定律的經濟效益。
黃仁勳在演講中反覆強調 NVIDIA 對開源模型的投入,從基礎模型 (Cosmos, Groot, Alpamayo ) 到開發工具 (Nemo),甚至是訓練資料。透過提供強大且開放的基礎設施與工具,NVIDIA 確保了無論是新創公司、大型企業還是學術界,在發展自己的 AI 時,都離不開 NVIDIA 的軟硬體平台。
NVIDIA 從 KV Cache 敏銳地發現了生成式 AI 時代下一個必然出現的記憶體瓶頸,並迅速提出了一個從硬體到軟體整合的解決方案。這一步讓 NVIDIA 的業務從純粹的「運算」領域,延伸到了「儲存」與「資料管理」,進一步鞏固了其在 AI 資料中心內的核心地位。
支持TN科技筆記,與科技共同前行
我是TN科技筆記,如果喜歡這篇文章,歡迎留言、點選愛心、轉發給我支持鼓勵~~~也歡迎每個月請我喝杯咖啡,鼓勵我撰寫更多科技文章,一起跟著科技浪潮前進!!>>>>> 請我喝一杯咖啡
在此也感謝每個月持續請我喝杯咖啡的讀者以及新加入的讀者們,讓我更加有動力為各位帶來科技新知!
以下是我的 threads 也歡迎追蹤、回覆、轉發喔!
>>>>> TN科技筆記(TechNotes)



















