[註:括號內為專業術語簡介;粗體標示為音訊辨識不確定處]
黃仁勳: 「Hello Las Vegas! 新年快樂,歡迎來到 CES [消費電子展:全球最大的年度消費性電子科技盛事]。今天我們大約有 15 kilos [黃仁勳幽默隱喻演講內容的『份量』極重] 的內容要呈現。很高興見到各位,現場有 3,000 人,廣場有 2,000 人,聽說四樓 NVIDIA 的展場也擠滿了人,全球還有數百萬人在看。
每隔 10 到 15 年,電腦產業就會重置。一次新的平台位移(Platform Shift [平台位移:運算技術的基礎環境發生結構性改變])會發生,從大型主機到 PC [個人電腦],從 PC 到網際網路,從網際網路到雲端 [Cloud:遠端伺服器運算服務],從雲端到行動通訊。每一次,應用程式都會鎖定一個新平台。
但這一次,有兩個同時發生的平台位移:我們正向 AI 邁進,應用程式將建立在 AI 之上。此外,你運行軟體的方式、開發軟體的方式都發生了根本性的改變。整個電腦產業的 Full Stack [全棧/完整技術堆疊:指從底層硬體、系統軟體到上層應用程式的完整技術架構] 正在被重新發明。你不再是編寫軟體,而是訓練軟體。你不在 CPU上運行它,你在 GPU上運行。
以前應用程式是預錄、預先編譯(Pre-compiled [程式執行前先轉譯成機器碼])並運行的;現在應用程式理解上下文,且每一次、每一個像素、每一個 Token [標記/字元:AI 處理資訊的最小單位,如一個單字或片段] 都是從頭開始生成的。
運算已被加速運算與 AI 徹底改寫。這意味著過去十年約 10 兆美元的運算產值正轉向這種新方式。每年有數千億美元的創投資金投入,這解釋了為什麼我們如此忙碌,去年也不例外。2025 年是不可思議的一年。一切似乎同時發生。第一件事是 Scaling Laws [規模定律:指增加數據量、模型參數與算力,AI 性能就會持續提升的法則。」
第二章:推理與代理人的突破
「2015 年,首個我認為會產生重大影響的語言模型叫 BERT [Google 研發的雙向語言表徵模型]。2017 年 Transformers [轉換器:現代 AI 的核心架構,讓機器能關聯大量資訊] 出現。直到 2022 年,ChatGPT 時刻發生,喚醒了世界。
一年後,發生了非常重要的事情。來自 ChatGPT 的第一個 o1 模型 —— 第一個推理模型。它發明了 Test-time Scaling [推理時縮放:讓 AI 在回答前,投入更多運算時間與步驟來進行深層思考規劃]。我們不僅預訓練模型,還透過強化學習進行後訓練。這就是『思考』。
與此同時,另一個突破在 2024 年發生,Agentic Systems [代理人系統:具備自主規劃、使用工具並解決複雜問題能力的 AI 助手] 開始普及。這些模型有能力推理、查找資訊、做研究、使用工具、計劃未來並模擬結果。我最喜歡的代理人模型之一叫 Cursor [一款整合 AI、能自動撰寫程式碼的編輯器],它革新了我們在 NVIDIA 的軟體開發。
AI 也有其他類型。除了語言模型,宇宙中凡是有結構的地方,我們都能教導 AI。其中最重要的是 Physical AI [物理 AI:能理解自然定律並與現實世界互動的 AI]。這關乎 AI 如何與世界互動,而世界本身就有編碼過的資訊,這叫 AI Physics [利用 AI 模擬與學習物理規律的技術]。」
第三章:開源革命與數位生物學
「去年最重要的事情之一是開源模型的進步。我們現在知道 AI 將無處不在。去年 DeepSeek R1 [強大且具備推理能力的開源 AI 模型] 的進步讓世界驚訝。現在我們有各種開源模型,它們僅落後 Frontier Models [前沿模型:指目前世上最強大的頂尖模型] 約六個月。
我們多年前開始營運自己的 AI 超級電腦,稱為 DGX Cloud。這讓我們能開發在多個領域的前沿模型:
- Digital Biology [數位生物學]:我們能合成並生成蛋白質。
- La Proteina [指的是一個最先進的原子級蛋白質生成模型,利用部分潛在流匹配技術,能生成多様、結構正確且可共設計(co-designable)的全新蛋白質序列和原子結構,可產生高達 800 個殘基長的蛋白質,在蛋白質設計和模擬領域具有重大突破。 ]
- OpenFold 3:理解蛋白質的結構。
- EVO 2:理解並生成多種蛋白質。
- Earth-2:理解物理定律、預測天氣的 AI。
- CorrDiff [NVIDIA 用於生成式 AI 天氣下尺度處理的技術]
- Nemotron [NVIDIA 的大語言模型系列,稿件誤植為 Neotron/Neimotron]:我們開發了第一個混合 Transformer SSM [結合轉換器與狀態空間模型的架構,兼具高速與長文本處理能力] 模型。
- Cosmos:一個前沿的開放世界基礎模型(World Foundation Model [理解現實物理運作規律的模型])。
- GR00T:人形機器人系統(Humanoid Robotic System)。
今天我們要談談 Alpamayo (NVIDIA 的推理級自駕基礎模型),我們不僅開源模型,還開源訓練數據。
Alpamayo ── 自駕車與工業革命
「Alpamayo 是全球首款『會思考、會推理』的自動駕駛車。它是『端到端』(End-to-End [讓 AI 直接從影像輸入學習到操作指令輸出,不經過傳統人為編寫規則])訓練的。它不僅激活方向盤和煞車,還會告訴你它採取行動的原因。
這對處理『長尾效應』(Long Tail [指道路上極其罕見但關鍵的突發狀況])非常重要。
實體 AI 需要三台電腦:
- 第一台:用來訓練模型。
- 第二台:用來做推論(Inference [讓訓練好的模型在終端設備上執行任務])。
- 第三台:用於模擬(Simulation)。
我們有 Omniverse [NVIDIA 的數位孿生平台] 作為數位孿生世界,Cosmos 作為世界模型。我們使用 Synthetic Data Generation(合成數據生成 [由 AI 生成的高品質訓練數據])。
我們與 Palantir、ServiceNow、Snowflake 深度整合。我們也宣布與 Siemens 合作。未來的工廠將是巨大的機器人。在機器人應對重力之前,它們已經在電腦裡被創造出來了。」
壓軸發表 —— Vera Rubin 平台
「最後,讓我們談談 Vera Rubin
現在的 AI 已從單次回答變成了一個思考過程。這導致運算需求爆炸性增長。因此,我們必須每年推進計算技術。Vera Rubin 目前已全面投入生產。
它由六顆晶片組成:
- Vera CPU:單線程效能極強。
- Rubin GPU:搭載 MV FP4 [Microvector FP4:一種新型數據格式,能大幅提升效能同時保持精確度]。
- NVLink 6:頻寬達 240 TB/s,是全球網際網路流量的兩倍。
- Bluefield 4 [DPU:數據處理單元]:處理安全與存儲。它還能管理 KV Cache [鍵值對快取:AI 推理時儲存上下文資訊的工作記憶體]。
- ConnectX-9 [NVIDIA 的次世代網路適配器]
- Spectrum-X:專為 AI 設計的乙太網路。
Vera Rubin 能量產 10 兆參數規模的模型(DeepSeek++)。
這就是 NVIDIA。我們重新發明了整層 Full Stack。謝謝大家來到 CES,享受這場盛會。」















