
大家早安,今天我們來談記憶體的最新變化。SK Hynix 在 9 月宣布完成 HBM4 的開發,並準備量產,同時將樣本提供給 Nvidia 測試。這不只是一次產品迭代,而是直接改寫 AI GPU 的成本結構,呼應我們在 記憶體世代演進:DRAM、Flash 與 HBM 和 記憶體的金字塔分工:Cache、DRAM 與 SSD 中的討論。
HBM3 的極限與 HBM4 的突破

HBM3E 與 HBM4 的樣本對比,HBM3E 每堆疊頻寬已達上限,而 HBM4 將介面位寬擴大、速率提升,單顆效能大幅超越 HBM3。這代表 GPU 與 CPU 在相同封裝空間內能獲得更高的記憶體頻寬與能效。
HBM3 與 HBM3E 已經支撐起生成式 AI 的第一波浪潮,但也暴露出兩大問題。第一是單顆 GPU 的記憶體頻寬仍不足,模型越大就越容易受限;第二是成本快速墊高,記憶體已經成為一張 AI 加速卡中最貴的元件之一。
HBM4 帶來的關鍵轉變在於,它將頻寬再推高一個檔次,讓記憶體而非算力的瓶頸被部分舒緩。這意味著未來的 GPU 訓練速度不只靠堆更多 GPU,而是單卡本身的效能會更接近線性擴張。同時,雖然單位價格比 HBM3E 更高,但因為頻寬密度的提升,單次運算的成本效率反而可能下降,這是雲端服務商最關心的數字。成本結構與供應鏈的再分配

Nvidia Rubin GPU 搭載 SK Hynix HBM4,並透過台積電先進封裝與 CPU 協同運算。
與 HBM3 相比,HBM4 在價格上的溢價高達 60–70%。這將使 GPU 廠商在成本表中的記憶體比重進一步拉高,甚至可能超過矽晶片本身。這也解釋了為什麼 Nvidia 會率先與 SK Hynix合作,因為能掌握最新世代 HBM 的產能,就等於確保自家 Rubin GPU 在市場上的領先。
對供應鏈來說,這是一次重新洗牌的機會。HBM3 時代 SK Hynix 就占據超過一半市場,HBM4 若能穩定量產,優勢將被進一步鞏固。反觀 Samsung 與 Micron,若在良率或交期上落後,將可能被排除在第一波 AI GPU 訂單之外。
當我們討論AI 模型成本為什麼這麼高時,常想到 GPU 算力價格。但從 HBM3 過渡到 HBM4 的過程顯示,真正的成本重心正在轉向記憶體。HBM4 把效能推向新高,但同時提醒我們:AI 的經濟學不是只有算力曲線,還包含記憶體的帶寬曲線與價格曲線。
對雲端業者來說,HBM4 是一把雙刃劍。它能讓單位 GPU 的算力更好發揮,降低能耗與延遲,但也讓每張加速卡的單價更高。未來如何在模型訓練與推理的定價中轉嫁這筆成本,將是下一階段 AI 商業模式的焦點。
(延伸閱讀:記憶體世代演進:DRAM、Flash 與 HBM、記憶體的金字塔分工:Cache、DRAM 與 SSD)