“你可以有最強的算力核心,但若記憶體頻寬跟不上,那些效能只會卡在瓶頸裡等死。” — Cadence 行銷總監 Frank Ferro
隨著 AI 模型規模指數級膨脹,記憶體已從配角晉升為演算法經濟的主角。2024 年底,ChatGPT、Gemini、Claude 這些 AI 巨獸每天吞吐的參數、向量與特徵圖(feature map),全都倚賴 DRAM 記憶體高速搬運、即時喚醒。

撰文|編輯部|2025年6月
但問題來了:你該選哪種記憶體?
根據《SemiEngineering》報導,今天市面主流的四大同步式 DRAM(SDRAM)架構 — DDR、LPDDR、GDDR、HBM — 各自擁有截然不同的成本結構、延遲輪廓與功耗權衡。每一項選擇,都是一場深層的運算博弈。
一場被記憶體改寫的 AI 革命
記憶體不再只是硬體工程的參數調節器,它決定了 AI 能否實用、是否商用,甚至能否從雲端走進日常生活。
- 在資料中心:HBM 如同白金地段建案,買得起就是你的演算法競爭優勢。
- 在車載與邊緣運算:LPDDR 是唯一能撐起高速推論又不爆炸功耗的選項。
- 在傳統 CPU 架構中:DDR 憑藉全球最廣泛供應鏈與最低單位成本,仍是 AI 平民化的支柱。
- 而 GDDR,則尷尬地被夾在頻寬與價格曲線之間,經常淪為系統設計時的「非必要項」。
HBM:最奢華的記憶體武器,資料中心唯一指定
HBM(High Bandwidth Memory)是目前唯一可支援 AI 模型訓練高頻寬需求的記憶體。其以 TSV(Through Silicon Via)堆疊技術,實現每通道可達數 TB/s 的資料吞吐。
但同時,它也是最昂貴、最燙手、最高風險的記憶體。
「在資料中心裡,買得起 5,000 美元 GPU 的公司,不會在乎再多花 500 美元買 HBM。」— Quadric 行銷長 Steve Roddy
HBM4 正式標準發布:頻寬再翻倍
2026 年,HBM4 即將問世,頻寬比 HBM3E 增加兩倍,通道數翻倍,成為 AI 模型升級(如 GPT-5、Gemini Ultra)所需的資源燃料。
LPDDR:AI 邊緣化運算的能效王者
低功耗 DDR(LPDDR)從手機世界出身,如今卻撐起了 AI 推論的半邊天。
LPDDR6 已進入設計階段,預計 2025 年底問世,將解決 ECC 弱點、提升傳輸率與記憶體控制邏輯。這也讓 LPDDR 成為「窮人的 HBM」,尤其在成本敏感但效能不能妥協的場景中,如車載 L4 自駕系統、邊緣 inferencing ASIC 等。
「LPDDR 是記憶體界的瑞士刀,沒有不能用的場景。」— Synopsys Murdock
DDR:經濟實用,訓練不靠它,推論還是靠它
DDR 是最老牌、最穩定的通用記憶體技術,幾乎存在於所有 CPU 驅動的系統中。
新世代 DDR5 MRDIMM 正在崛起
透過雙插槽交錯存取(ping-pong),讓頻寬加倍。缺點是功耗與成本也同時上升,更像是向 HBM 靠攏的折衷方案。
「如果你只想讓設備跑得起來,又不需要極致效能,DDR 還是絕對可靠。」— Expedera 工程師 Tadishetti
適合應用場景:
- 中小企業 AI 工作站
- 工控 AI 模組
- 智慧家庭與 IoT 邊緣裝置
GDDR:速度夠、成本中、但常常不被選
GDDR 專為 GPU 而生,具備比 DDR 更高頻寬,但延遲不如 LPDDR,功耗也不低。更麻煩的是,它無論在價格還是性能,都不上不下,缺乏一擊必中應用場景。
「GDDR 對 AI 來說,總是差一點。」— Quadric Roddy
但隨著生成式 AI 圖像、影音模型(如 Runway、Stable Diffusion)興起,GDDR 有望成為 AI 繪圖專用加速器的下一波記憶體核心。
你的記憶體選擇,是未來能否活下去的生存策略
當所有晶片公司都在談大模型、低功耗、高頻寬,記憶體成了真正左右命運的技術選項。不是所有人都能負擔 HBM,不是每個應用都能容忍 LPDDR 的封裝限制,GDDR 的尷尬與 DDR 的廉價,也讓每一次架構選擇都充滿了策略與妥協。
工程師得思考:
- 你是跑 LLM 還是只做 AI 影像分類?
- 你能接受散熱塔與 300W TDP 嗎?
- 你是在雲端訓練還是邊緣推論?
這些問題的答案,將決定你用哪一類 DRAM,也決定你的 AI 系統能否脫離瓶頸、真正成為時代競爭力的一部分。