最近快速崛起的 DeepSeek ,透過「知識蒸餾(Knowledge Distillation)」的方法,從 OpenAI 的大型模型中萃取出小型高效的語言模型。這不僅降低了運算成本,也讓 AI 應用變得更具普及性。這種趨勢結合 NPU(神經處理單元)技術,將為語言模型的應用場景帶來顛覆性的改變。

※ AI 的發展方向:小模型、低成本、客製化
- 小模型的崛起:大型語言模型雖然強大,但運行成本高昂。DeepSeek 透過蒸餾技術達到模型輕量化,同時也保留了核心能力。
- 降低部署成本:小型模型的計算需求降低,使其能夠在成本更低的硬體上運行,例如行動裝置、邊緣設備等。
- 高度客製化:企業與個人可以根據自身需求微調 AI 模型,提升效率與應用價值。
※ 消費性市場的催化劑:NPU + 小模型的全新體驗
NPU的介紹及應用可以參考這部影片:
簡而言之,NPU(Neural Processing Unit)是一種專門設計來加速人工智慧(AI)和機器學習(ML)推理運算的處理器。與傳統的 CPU(中央處理器)或 GPU(圖形處理器)相比,NPU 針對神經網路運算進行了優化,能夠以更低的功耗執行深度學習任務。
目前大多數 AI 應用仍依賴 Nvidia GPU 進行推理,但隨著 NPU 技術的發展,企業與亦可以選擇NPU,作為更具成本效益的解決方案。
除了NPU以外,大廠也會開發自有ASIC用於AI運算,以降低對於GPU依賴。如Google Cloud TPU v4、Huawei Ascend 910、AWS Inferentia。
AI 模型的輕量化讓手機、筆電等消費級設備得以運行高效的語言模型。透過內建 NPU 或 ASIC 晶片,手機與電腦將能夠即時進行語音識別、文字生成、圖像處理等 AI 任務,而無需仰賴雲端運算。
※ 影響與市場機會
- 刺激手機更換需求:隨著 AI 功能的提升,未來 AI 手機將能夠提供更強的智慧助手、即時翻譯、影像增強等功能,促使消費者升級設備。
- 聯發科受惠:聯發科等晶片製造商將受惠於 AI 手機市場的擴展,NPU 成為新一代晶片的標準配置。
- 利基型記憶體需求增長:AI應用能帶動消費性電子的去庫存化,也帶動特定記憶體市場的成長。
- 降低導入 AI 應用門檻:經濟實惠的解決方案,有助於 AI 應用的普及化,讓更多企業能在本地部署 AI 模型,處理個人化問題,如企業內部搜尋、專屬 AI 助理等。
※ 結論:NPU + 小模型開創 AI 新時代
DeepSeek 展示了小型語言模型的潛力,而 NPU 則為其提供了高效能的運行環境。隨著 AI 手機、PC、企業地端 AI 推論的發展,未來的 AI 生態將更加去中心化,不再依賴昂貴的 GPU,而是轉向更節能、高效、低成本的解決方案。這將帶來 AI 技術的普及化,並創造更多新的商業機會。