AI語言模型隨著規模增加以及硬體設備技術升級,每單位算力成本從2021年到2025年已降低99.9%;不過在成本大幅降低的情境下,算力需求不減反增,代表AI符合傑文斯悖論,也就是當技術進步提高了使用資源的效率,但成本降低反而導致需求增加,令資源消耗的速度持續成長。
在AI從「模型訓練」走向「大規模落地」的情境下,推理需求正進入加速成長階段。越來越多Copilot類產品、智能客服、搜尋/RAG、代理型工作流程與多模態應用開始在企業與消費端常態化運行,相較訓練偏一次性、專案式的算力消耗,推理更接近雲端服務的日常流量,會隨著使用者人數、使用時長與每次請求的token數上升,使整體推理token需求呈指數級成長。在用戶端的AI滲透率提升下,資料暫存的需求勢必也會跟著提升,這也將進一步帶動記憶體超級循環的週期延長。



#AI語言模型 #傑文斯悖論 #Copilot #記憶體






