最近快速崛起的 DeepSeek ,透過「知識蒸餾(Knowledge Distillation)」的方法,從 OpenAI 的大型模型中萃取出小型高效的語言模型。這不僅降低了運算成本,也讓 AI 應用變得更具普及性。這種趨勢結合 NPU(神經處理單元)技術,將為語言模型的應用場景帶來顛覆性的改變。
NPU的介紹及應用可以參考這部影片:
簡而言之,NPU(Neural Processing Unit)是一種專門設計來加速人工智慧(AI)和機器學習(ML)推理運算的處理器。與傳統的 CPU(中央處理器)或 GPU(圖形處理器)相比,NPU 針對神經網路運算進行了優化,能夠以更低的功耗執行深度學習任務。
目前大多數 AI 應用仍依賴 Nvidia GPU 進行推理,但隨著 NPU 技術的發展,企業與亦可以選擇NPU,作為更具成本效益的解決方案。
除了NPU以外,大廠也會開發自有ASIC用於AI運算,以降低對於GPU依賴。如Google Cloud TPU v4、Huawei Ascend 910、AWS Inferentia。
AI 模型的輕量化讓手機、筆電等消費級設備得以運行高效的語言模型。透過內建 NPU 或 ASIC 晶片,手機與電腦將能夠即時進行語音識別、文字生成、圖像處理等 AI 任務,而無需仰賴雲端運算。
DeepSeek 展示了小型語言模型的潛力,而 NPU 則為其提供了高效能的運行環境。隨著 AI 手機、PC、企業地端 AI 推論的發展,未來的 AI 生態將更加去中心化,不再依賴昂貴的 GPU,而是轉向更節能、高效、低成本的解決方案。這將帶來 AI 技術的普及化,並創造更多新的商業機會。