在 2025 年的歲末之際,NVIDIA 投下一顆震撼彈:與 AI 晶片新創公司 Groq 簽署一份高達 200 億美元的非獨家授權協議,取得其專精於 AI 推理(Inference)的晶片技術,並將 Groq 的部分管理高層招入麾下。此舉不僅意味著 NVIDIA 在 AI 推理領域的全新佈局,也揭示出當前晶片產業在能源、散熱、記憶體與供應鏈壅塞下的戰略轉向。
這筆交易究竟為何對 NVIDIA 而言如此關鍵?Groq 所打造的 LPU(Language Processing Unit)又有何與眾不同之處?
Groq 是誰?從瀕臨破產到身價 200 億美元Groq 是一家成立將近十年的 AI 晶片新創公司,由前 Google TPU 創辦工程師 Jonathan Ross 創立。據報導,該公司一度資金緊張到必須要求員工以股權換取薪水,但如今卻成為 NVIDIA 願意砸下重金合作的對象。
此次交易總金額約為 200 億美元,其中約 130 億美元 已於交易簽訂時付款,其餘將在未來幾個月內支付,並包括發給 Groq 員工的 NVIDIA 股票配套方案。Jonathan Ross 擁有約 10% 股權,換算之下他的身價一舉突破 20 億美元,成為本輪 AI 資產重分配的最大贏家之一。
Groq 的主要投資方包括 Disruptive、Social Capital、BlackRock,以及川普總統之子 Donald Trump Jr. 的 1789 Capital。
此次交易的五大戰略意涵:NVIDIA 的「防守與進攻」
此舉並非典型的收購(Acquisition),而是非獨家的授權協議(Licensing Deal),但其戰略意義不容小覷。根據市場分析,這筆交易不僅「驚人、昂貴」,更具備高度的「戰略性、攻防性與互補性」,可概括為以下五大重點:
1. 能源瓶頸(Energy Bottleneck)
AI 推理需要大量計算資源,但傳統 GPU 系統因為搭載 HBM(高頻寬記憶體),在執行推理任務時耗能龐大。Groq 的 LPU 採用的是內嵌於晶片的 SRAM 記憶體,相較之下每 bit 計算僅需 0.3 picojoules,遠低於 GPU 使用 HBM 的 6 picojoules,在架構層級上約具 10 倍能源效率優勢。
這對 NVIDIA 而言意義重大,因為能源消耗已成為資料中心拓展的最大限制之一。
2. HBM 供應瓶頸(HBM Supply Bottleneck)
HBM(High Bandwidth Memory)目前全球供應緊張,2026 年的 HBM 產能已被預訂一空,三大供應商 SK Hynix、Samsung 與 Micron 也因產業週期性不願擴產。NVIDIA 的高階 GPU(如 Blackwell 系列)嚴重依賴 HBM,因此無法大幅擴展推理晶片產量。
Groq 的 LPU 完全不需 HBM,讓 NVIDIA 可繞過這一瓶頸,持續擴大 AI 晶片銷售與部署。
3. 散熱與資料中心瓶頸(Cooling and Data Center Bottleneck)
NVIDIA 最新的 GPU 大多需液冷(Liquid Cooling)系統,但全球大多數資料中心仍採空冷(Air Cooling)架構。Groq 的 LPU 採空冷即可高效運作,為 NVIDIA 提供了另一選項來部署於尚未升級為液冷的資料中心,尤其適用於歐洲與開發中國家現有機房的再利用。
4. 供應鏈多元化(TSMC & CoWoS Bottleneck)
NVIDIA 目前多數晶片需依賴台積電與 CoWoS(Chip-on-Wafer-on-Substrate)封裝,製程與產能皆受限。相較之下,Groq 的 LPU 可使用較舊的製程節點,如 14nm,並於 GlobalFoundries 等非主流晶圓廠生產,讓 NVIDIA 可跳脫對台積電的高度依賴。
5. 人才與競爭防衛(Talent and Competitive Defense)
Groq 的推理技術成長快速,LPU 每秒可生成數百個 tokens,是目前 GPU 難以比擬的效能。若此技術落入競爭對手如 Meta 或 Microsoft 之手,可能對 NVIDIA 的推理晶片業務造成威脅。藉由授權合作並吸納核心團隊,NVIDIA 成功阻止潛在競爭對手開闢替代 GPU 的供應鏈路徑。
LPU 與 GPU 的根本性差異:從架構看戰略價值
GPU:萬用但非最佳
GPU 最初為圖形處理而設計,適合高度平行運算。AI 推理時每次產生一個 token,都需從外部 HBM 讀取模型權重,存在「記憶體牆」(memory wall)問題,導致效能瓶頸。
TPU:適合訓練、大量推理,但仍有延遲
Google TPU 使用 Systolic Array 架構,適合批次訓練與大規模推理,但在面對低延遲、單一用戶的即時應用時仍不理想。
有興趣可以看 FinGuider 美股資訊網這篇衍生閱讀
【美股話題】Google TPU 是什麼?專用晶片翻轉 AI 戰局:TPU 相較於 GPU 有何優勢與缺點? | FinGuider 美股資訊網
LPU:專為低延遲推理打造的「流水線」
Groq 的 LPU 最大特色是:
- 資料與運算單元共構:使用內嵌 SRAM,資料無需「取用」,處理速度大幅提升。
- 決定性架構:由編譯器精確排定每筆資料何時在哪處處理,如同自動化裝配線。
- 超高效能推理:單顆 LPU 每秒可生成 300~500 tokens,遠高於 GPU 的約 50 tokens。
- 高能源效率:每 token 耗能為 GPU 的十分之一。
- 適合高流量但固定任務的應用場景,如 AI 語音助理、客服機器人等。
缺點則為:
- SRAM 容量有限(約 230MB),無法單獨裝載大型模型。
- 執行大型模型需多顆 LPU 串聯,成本與佔地較高。
- 架構固定,對於未來模型架構變動(如從 Transformer 轉向新結構)反應不如 GPU 靈活。
NVIDIA 的未來:多元硬體策略,推理戰場全面開打
此次 Groq 的「非獨家授權」,雖非收購,卻已可視為具收購效果的「Acquihire」操作。透過結盟,NVIDIA 得以掌握另一條供應鏈路徑,同時搶佔市場話語權。
對 NVIDIA 而言,此舉也代表對市場釋出重要訊號:
- 認可 GPU 並非萬能:對於 AI 推理這類「高頻率、低利潤」的市場,需更專精化的解決方案。
- 全力抓住 AI 推理的下一波成長動能:與其讓競爭對手開發替代產品,NVIDIA 選擇主動出擊、全面整合。
- 持續打造晶片供應鏈的戰略彈性與韌性:從製程、記憶體、散熱到能源,每個層級都須有備案。














