最近如果有在關注美股或半導體板塊的朋友,可能會注意到三月底的一波小震盪。知名記憶體大廠像是美光(Micron)、威騰電子(WDC)等股價突然迎來一波下殺,連 DDR5 的現貨價也跟著鬆動。
而引發這波市場焦慮的「凶手」,竟然是 Google Research 發表的一篇學術論文——TurboQuant 演算法。大家可能會好奇:一個演算法,憑什麼讓硬體大廠的股價蒸發?但更有趣的問題是:為什麼在散戶恐慌拋售的同時,外資法人跟儲存硬體產業的高層,卻依然老神在在?
今天就來幫大家拆解這背後的底層邏輯。
什麼是 TurboQuant?為什麼市場會怕?
要搞懂市場在怕什麼,我們先來認識一個 AI 術語:KV Cache(鍵值快取)。
當我們在跟 ChatGPT 或其他大型語言模型(LLM)對話時,為了不要讓 AI 每次都把我們講過的話「從頭重看一遍」,系統會切出一塊記憶體空間當作「短期記憶區」,這就是 KV Cache。你可以把它想像成 AI 專用的運算便利貼。
問題來了,隨著我們餵給 AI 的資料越來越龐大,這張便利貼的消耗量也跟著暴增,不只吃掉了昂貴的 GPU 記憶體,還會拖慢運算速度。
而 Google 這次發表的 TurboQuant 就是來解決這個痛點的。他們宣稱這個演算法可以做到:
• 在不犧牲精準度的前提下,把 KV Cache 的空間 壓縮到原本的 1/6。
• 把 AI 推論的運算速度 提升最高 8 倍。
市場的直覺反應很簡單:「哇!AI 不再需要那麼多記憶體了,那 HBM(高頻寬記憶體)跟 NAND 的需求不就要崩盤了嗎?」於是,恐慌性賣壓就出籠了。
內行看門道:三個理由告訴你為何大廠不擔心
面對散戶的恐慌,外資(如摩根士丹利、美國銀行)和業界高層卻顯得異常冷靜。綜合他們的觀點,我們可以歸納出三個市場過度反應的盲點:
1. 實驗室裡的論文,距離商用還有段距離
首先,大家似乎忽略了這還只是一篇「即將在學術會議發表的論文」。目前連開源的程式碼都還沒看到,更別說要大規模導入商業應用。用技術面的術語來說,這種透過「破壞式壓縮」來換取空間的做法,雖然號稱無損,但在實際複雜的企業級應用中,是不是真的完美無缺?還得打個大問號。這波下跌,更多是情緒面凌駕了基本面。
2. 只影響「推論」階段,不動搖訓練根本
摩根士丹利的報告點出了一個關鍵:TurboQuant 只針對 AI 「推論回答」階段 的短期記憶做壓縮,它完全沒有改變 AI 模型本身的權重,也不影響「訓練階段」對硬體的龐大需求。這不代表市場不需要記憶體了,而是「每一顆 GPU 的工作效率變高了」。
3. 最關鍵的「傑文斯悖論」:越省,反而用越兇!
這是我認為最有趣的一個經濟學觀點。歷史上一直存在一個現象叫 傑文斯悖論(Jevons Paradox):當一項資源的使用效率提升、成本下降時,整體的需求反而會激增。
想想看,如果 AI 的運算成本因為這個演算法而大幅下降、速度變快,企業跟開發者會怎麼做?
答案是:塞給 AI 更多、更複雜的上下文資料! 當大家開始讓 AI 處理整本書、一整個資料庫的內容時,被演算法省下來的記憶體空間,馬上又會被更龐大的需求給填滿。而且,AI 產出的資料量變多,最終這些資料還是得存進 SSD 或傳統 HDD 裡。長遠來看,這其實是在把整個市場的餅給做大。
回歸現實:缺貨才是硬道理
不管演算法未來多神,都無法解決當下科技業面臨的殘酷現實——記憶體真的太缺、太貴了。
目前市場上的真實狀況是:
• 高階 SSD 一碟難求: 價格就算喊到上百萬台幣,廠商捧著錢也不一定有貨。
• 大廠瘋狂綁樁: 科技巨頭為了確保 AI 基礎設施的進度,正排隊跟三星等記憶體廠簽訂 3 到 5 年的長約,甚至願意支付天價預付金。
• 消費電子跟著漲: 缺貨效應已經蔓延到手機跟筆電,低價手機的成本裡有高達 8 成是記憶體,接下來幾季,大家買 3C 產品可能都要做好漲價的心理準備。
結論:讓子彈飛一會兒
Google 的 TurboQuant 無疑是一項令人興奮的技術突破,它讓我們看到軟體演算法如何優化硬體瓶頸。但如果你是一位投資人,或是關注科技產業的觀察者,千萬別被短期的標題給嚇跑了。
在 AI 算力需求呈現指數級爆發的今天,運算效率的提升只會加速 AI 的普及。業內專家預估,這波記憶體供需緊張的狀況,至少要到 2027 年的下半年才有機會緩解。在這之前,記憶體產業的長線邏輯,依然非常穩固。















