Micron於6月10日正式宣布開始向關鍵客戶出貨HBM4 36GB樣品,標誌著下一代AI記憶體技術進入商業化階段。這款採用2048-bit介面的新世代高頻寬記憶體,傳輸速度突破2.0TB/s,比前代HBM3E性能提升60%以上,功耗效率同時改善20%。隨著AI模型參數規模持續擴張,記憶體頻寬已成為制約AI運算效能的關鍵瓶頸,而非純粹的運算力本身,Micron的技術突破確實打在市場需求的最核心位置。
市場反應證明了HBM的戰略價值。Nvidia預計2026年將採購1100萬個HBM單位,Google緊隨其後需求280萬個,主要用於TPU v7p處理器。問題在於,儘管HBM成本高昂,Nvidia憑藉超過750億美元的現金儲備,完全有能力為高階GPU支付溢價。這種價格彈性極低的需求模式,正在重塑整個記憶體產業的競爭格局。SK Hynix已在Q1向Nvidia交付HBM4樣品並計劃2025下半年量產,Samsung則因良率問題延後客戶樣品交付,而Micron計劃在2026上半年開始量產。
照這個趨勢,Micron的HBM市場份額預計在2025下半年將達到其整體DRAM市場份額的20-25%水準。公司股價2025年至今已暴漲42%,Q3營收93億美元超越預期的88.6億美元,每股收益1.91美元遠高於預期的1.60美元。27位分析師平均給予"強力買入"評級,目標價152.11美元,較當前價格有34.3%上漲空間。隨著HBM市場預計2025年成長70%,到2030年可望達到1000億美元規模。