大摩最近發了一篇針對群聯,討論度很高的報告,內容主要在講:
「群聯現在的高毛利,主要靠的『賣出前幾年買的低價庫存』,等到2026下半年,低價庫存會逐漸用盡,到時候毛利率就會回歸正常水準。」
針對大摩的報告,我認為部分正確,但也有明顯的盲點。
正確的部分:群聯當前獲利亮眼,的確很大程度仰賴「低價庫存紅利」。在 2024-2025 年 NAND 景氣低谷時,群聯大量囤貨,成本遠低於現在市價。當 2026 年 AI 需求推升價格時,賣出這些庫存自然創造高毛利。不同意的部分:大摩預測 2026 下半年低價庫存就會「逐漸用盡」,導致毛利率快速回落。這點過於保守,甚至可能低估了 NAND 市場的結構性變化。
先不談群聯的 eSSD 在 AI 的技術佈局,這部分有時間另外再講。
我們單純先討論「低價庫存」的邏輯。
假設 NAND 的報價在 3-5 年的時間內,呈現穩定上漲的趨勢,那群聯今年購入的庫存,不就會變成明年的低價庫存?也就是說,大摩的邏輯,本質上建立於一個前提:NAND 價格不會繼續大幅上漲,甚至可能見頂回落。
為什麼 NAND 的報價上漲的機率大?
關鍵在於 AI 帶來的供需結構性失衡:
- 2026 年 NAND 位元需求成長率(Bit Demand Growth):預估 20-22% YoY(年比年)。
- 供給位元成長率(Bit Supply Growth):僅 15-17% YoY(部分報告甚至更保守,如 mid-teens)。
可以看出 AI 帶來供需缺口約有 3-7%,而且有持續短缺的趨勢。
供給端為何跟不上?原廠(如三星、SK 海力士、美光、鎧俠)資本支出謹慎,優先投入高附加價值技術(更高層數 3D NAND、QLC 優化),而非大規模擴產位元數。消費級產能(如 MLC)已大幅縮減逾 40%,產能幾乎全數轉向 AI 企業級產品。
需求端則完全被 AI 重新定義。AI 應用不像傳統伺服器只需少量儲存,而是產生海量資料,需要高速、大容量、低成本的儲存層級。主要分為兩階段:
AI 訓練(Training)階段:
需要儲存巨量訓練資料集、模型參數快照、中間結果與日誌。 每個訓練叢集可能產生數 TB 到 PB 級資料,需頻繁 checkpointing。 傳統 HDD 容量大但速度慢,AI 訓練偏好高容量 QLC/TLC NAND SSD 作為近線儲存,部分取代 HDD 以提升效率。
AI 推論(Inference)階段:
推論是 AI 實際應用(如 ChatGPT、Gemini、Copilot 生成回應),每天產生海量查詢。 關鍵瓶頸在 KV Cache(Key-Value 快取,用於注意力機制):長上下文模型可能累積數十 GB 甚至 TB 級快取。 若全靠 HBM/DRAM 儲存,成本高、容量有限,技術趨勢轉向 以 NAND SSD 作為「第三層級記憶體」,卸載 KV Cache 並快速讀取,可加速 Time to First Token(TTFT)4-10 倍。
再舉個生活化的例子:現在 AI 產文、產圖、產影片的功能越強大,Hyperscalers(如 Google、Microsoft、Meta)不僅讓使用者每天產生更多數據,還必須幫你儲存這些「海量數據」。現在的趨勢是 AI 越好用,帶動的儲存需求就越高。
再加上 NAND 擴產速度慢(原廠已售罄 2026-2027 年產能,甚至要求 3 年預付款),這波供需失衡很可能維持數年。
總結來說,大摩報告點出了群聯短期紅利的來源,但低估了 AI 帶來的長期結構性需求。群聯若持續鎖定供應,現在購入的 NAND 在未來很可能成為「新低價庫存」,讓毛利率紅利延續更久。當然,若是 AI 投資降溫,或是原廠產能大爆發,還是會對群聯產生不小的負面影響。




















