花了一早研蘋果的 M4,主要有兩個亮點:
1.NPU 效能:比 M3 提升了 1.1 倍(M4 的 38 TOPS vs M3 的 18 TOPS)
2.低功耗:和目前最新的 PC 晶片比,功耗僅要其 25% 就可以跑一樣的任務(和 M2 比則是減少 50%)
NPU 和功耗,這兩項是 Edge 端 AI 晶片最重要的關鍵,而 M4 幾乎是用倍增在成長,看起來是遙遙領先對手。(如果在 iphone 功能升級也可以不要擠牙膏該有多好)
蘋果這次先把 M4 搭載到 iPad、又把 iPad 螢幕加大到 13 吋也很有趣。
個人判斷是,他想把一些適合在 iPad 的工作場景,尤其是影片圖像類的搬過來,讓 iPad 成為第二個工作站。
想一想也合理,很多人其實會透過 iPad 來拍片、剪片、剪音樂,而這些應用場景對 AI 的需求感覺會遠比一般辦公高。
目前一般辦公能想到的應用主要是 copilot(事實上現在市面上的 AI PC 也都在炒這個),但想來想去就是幫忙優化 excel、製作 PPT、發郵件、視訊生成會議記錄之類的,這些對 AI 算力的需求真的有那麼高嗎?
但拍片、剪片就不一樣了,要自動生成影片、自動修圖、自動美化等等,這些圖片、影片內容對 AI 需求直觀來想會比前者高很多。可能也是這樣,蘋果昨天才一直在強調 final cut pro(雖然感覺很少人在用?)。不過也看得出來,蘋果自己也還在探索 Edge AI 到底要長怎樣。畢竟連消費者自己都不知道需求在哪了,我們可以問自己,AI PC 能幫我們解決什麼通點?相信也是腦袋一片空白。
至於在 AI 的競爭力,很多人說他都沒買 GPU 落後了、要被 AI 時代拋下了,但事實堆 GPU 主要是為了 AI 模型的 training ,而蘋果的主戰場一直都不是在 training,而是在 inference 推論端(也就是面向用戶的場景)。
是否有個可能,蘋果就直接買外部的大語言模型?又或者他的 GPU 研發能力也很強,有沒有可能自己一直在研發?只是沒有公佈而已?
畢竟他的生態圈本來就是閉環,只要自己夠用就好,根本不用像微軟、Meta、Google 一樣一直無腦堆算力。
我自己對這次發佈會的結論是,蘋果在 AI 戰場絕對有一席之地,除了有晶片外,還掌握了 13 億的果粉。
下一個關鍵,我覺得會是蘋果是否能定義 AI PC、AI 手機或 AI 平板是什麼,真正發現並滿足消費者的痛點,並教育用戶使用。