
我們都知道 CPU、GPU 在電腦中的任務,但近年 AI 的關係又出現了 NPU、TPU、LPU,你知道這些是什麼的嗎?
簡單來說,這三個詞都是指「專門用來處理 AI 任務」的處理器,但它們的應用場景完全不同。
TPU 和 LPU 主要是企業、雲端或特定手機品牌的技術,通常不會出現在一般電腦的規格表中。如果是一般消費者要採購電腦來說,你只需要關注 NPU。NPU、TPU、LPU 負責什麼任務?
NPU(Neural Processing Unit)

NPU 的中文叫「神經網路處理器」,這是目前消費級電腦(筆電、桌機)中最熱門的關鍵字。它是專門設計來跑「推論」(Inference)的,也就是執行已經訓練好的 AI 模型。
NPU 負責處理電腦中低功耗的 AI 任務,例如:視訊會議時的「背景模糊」、麥克風「降噪」、或是 Windows Copilot 的部分本機功能。
蘋果手機、電腦稱之為 Neural Engine(神經網路引擎),早已內建在 Mac(M系列晶片)和 iPhone(A系列晶片)中。Qualcomm 的 Snapdragon X 系列晶片也內建了強大的 NPU 效能。
而 Intel、AMD 在最新的 Core Ultra 和 Ryzen AI 系列處理器中也整合了 NPU。
TPU(Tensor Processing Unit)

TPU 的中文叫「張量處理器」,這是 Google 專門為了自家的 AI 框架(TensorFlow)所研發的晶片;它擅長處理大量的矩陣運算,效率極高。
因為 TPU 是 Google 自行設計,主要是 Google Cloud 伺服器在使用(你在用 Gemini 或 Google 翻譯時,背後可能就是 TPU 在跑)。而 Google 的 Pixel 手機的 Tensor 晶片中也包含了 TPU 核心,用來處理手機上的語音轉文字、魔術橡皮擦等功能。
TPU 是在市面上買不到的商品,一般的 Windows 或 Mac 電腦裡也都不會有 TPU。
LPU(Language Processing Unit)

LPU 的中文叫「語言處理器」,這是一個較新的概念,主要由 Groq 這家公司提出。
LPU 的功能和 TPU 有點像,都是專門為了 LLM(大型語言模型)設計。它的特點是「速度極快」,目的是讓 AI 聊天機器人的回應速度像人類講話一樣即時,沒有延遲。
這是企業級的伺服器技術,用來提供超快速的 AI API 服務。外面也完全買不到,這不是給個人電腦用的硬體。
個人 AI 電腦要怎麼買?
現階段如果要買 AI 電腦,你需要注意 NPU,可以完全忽略 TPU 和 LPU。(反正不可能買得到)
為什麼要注意 NPU?
隨著 2024-2025 年「AI PC」概念的普及,NPU 變得越來越重要,原因如下:
- NPU 會讓電腦的省電與續航數倍提升:以前視訊會議的「背景模糊」要靠 CPU 或 GPU 算,很耗電且風扇會狂轉。現在交給 NPU 處理,功耗極低,筆電續航力會變好。
- 在本機使用 AI 算力(Copilot+ PC):微軟推動的 Copilot+ PC 標準,要求電腦必須具備算力達 40 TOPS(每秒兆次運算)以上的 NPU。如果你希望電腦能跑未來的 Windows 本機 AI 功能(如回顧功能 Recall、本機生圖),就需要買搭載強大 NPU 的機種。
- 蘋果用戶全面內建 NPU 算力:如果你買 Mac,Apple Silicon(M1、M2、M3、M4)全系列都標配 Neural Engine(NPU),所以你不需要特別挑選,因為已經內建了,且因為系統和軟體已經全面支援,整理效能通常很不錯。
微軟推動的 Copilot+ PC 標準,要求電腦必須具備算力達 40 TOPS(每秒兆次運算)以上的 NPU。如果你希望電腦能跑未來的 Windows 本機 AI 功能(如回顧功能 Recall、本機生圖),就需要買搭載強大 NPU 的機種。
Mac 電腦可能是目前 NPU 最佳電腦
目前最新的 Mac(M4 晶片)的 NPU 算力約為 38 TOPS(每秒 38 兆次運算),如果不談冰冷的數字,這個速度的體感結論是:
「非常快,且效率極高,但帳面數字略輸給 Windows 陣營最新的『AI PC』標準。」
雖然 Mac 的 NPU 帳面數字(38 TOPS)略低於 Copilot+ PC 標準,但實際使用上 Mac 往往處理 AI 任務更流暢,原因有二:
- macOS 的統一記憶體架構(Unified Memory):Mac 的 NPU 可以直接存取超大容量的記憶體(例如 16GB、32GB 甚至 128GB)。而 Windows 電腦的 NPU 通常受限於較慢的記憶體傳輸。這讓 Mac 在跑「大語言模型(LLM)」或「AI 生圖」時,載入速度更快。
- Core ML 優化: macOS 系統層級對 NPU 的調用非常成熟。許多軟體(如 Pixelmator、Final Cut Pro,甚至 Adobe 系列)在 Mac 上使用 NPU 的效率比在 Windows 上更高。

比較起 AI PC,AI Mac 看起來更像是把錢花在刀口上

不過同代晶片中,買到頂規(Max、Pro)的 NPU 算力通常跟入門款是一模一樣的。只有「Ultra」系列因為是兩顆晶片黏在一起,算力才會翻倍。
有興趣可以看這個影片的介紹:






















