
科技產業從來不缺誇張宣稱,但當 Nvidia 執行長 Jensen Huang 說「我們已經達成 AGI」的時候,整個圈子還是震了一下。不是因為這句話多了不起,而是因為說這話的人、說話的時機、以及這句話背後隱含的商業盤算,都值得拆解。
同時,OpenAI 正在談判向 Sam Altman 投資的核融合新創 Helion 購買電力。Meta 宣布 AI 內容審核系統將逐步取代人類審核員。WordPress.com 開始允許 AI 代理人直接發布文章。一個北卡羅來納州的男子用 AI 生成音樂騙了 800 萬美元的版稅。
這些看似獨立的新聞,其實指向同一個方向:AI 正在從「輔助工具」變成「自主代理人」,而這個轉變比大多數人意識到的還要快。
AGI 的定義正在被改寫
Nvidia 執行長 Jensen Huang 在接受媒體採訪時表示,以他的定義來看,AGI 已經達成了。他說的是「任何一個你能清楚定義的測試,AI 現在都能通過」。這個說法聰明的地方在於,它把難題丟回給了質疑者:如果你認為 AGI 還沒到,那你得先說清楚 AGI 到底是什麼。
問題是,沒有人真的說得清楚。
產業界對 AGI 的定義分歧巨大。有人認為是「人類級別的通用智慧」,有人認為是「能在所有經濟任務上超越人類的系統」,有人認為需要具備意識和自我反思能力,有人覺得只要能在大多數工作上比人類強就算。OpenAI 的章程裡把 AGI 定義為「高度自主的系統,在大多數具有經濟價值的工作上超越人類」,但這個定義本身就很模糊。
Huang 的宣稱之所以引發討論,是因為它恰好踩在這個模糊地帶上。如果你接受「通過所有定義清楚的測試」這個標準,那確實,現在的 GPT-4、Claude、Gemini 在很多測試上已經超越人類了。程式競賽、數學奧林匹克、醫學執照考試、律師考試,這些曾經被認為需要「真正智慧」的任務,現在 AI 都能做得很好。
但批評者立刻指出問題所在:考試能力和真正的人類智慧是兩回事。AI 可以通過律師考試,但無法像律師一樣理解案件背後的社會脈絡。AI 可以寫出完美的程式碼,但無法像工程師一樣判斷「這個功能是否應該存在」。通過測試不等於具備智慧,就像鸚鵡能背誦莎士比亞不代表牠理解文學。
這場爭論的背後,其實是一個更深層的問題:我們對「智慧」的定義,本身就在被 AI 重新塑造。每一次 AI 突破某個我們認為需要智慧的領域,我們就說「喔,那個不算,因為 AI 做到了」。國際象棋曾經是人類智慧的象徵,Deep Blue 贏了之後我們說那只是暴力計算。圖像識別曾經被認為需要人類的視覺理解,現在我們說那只是模式匹配。這種移動門檻的遊戲會持續下去,直到有一天我們發現已經沒有剩下多少我們願意承認為「真正智慧」的領域。
從商業角度來看,Huang 選擇這個時機點宣稱 AGI 已達成並非巧合。Nvidia 正處於 AI 晶片需求的絕對高峰,H100、Blackwell 架構的晶片供不應求,市值突破 3 兆美元。在這個位置上,他不只是說「AI 很強」,而是在說「我們打造的晶片是讓人類達成歷史性里程碑的關鍵基礎設施」。這不是謙虛的時候,這是鞏固 Nvidia 作為「AI 時代電力公司」地位的時候。
同時,這個宣稱也在向市場和政策制定者傳遞訊息:AI 不再是未來的技術,而是已經到來的現實。如果你還在討論「要不要監管」,你已經落後了。如果你還在想「什麼時候準備」,你可能已經太晚。這種論述策略對 Nvidia 有利,因為它加速了企業和政府的採購決策,而每一次採購決策,最終都會變成對 Nvidia 晶片的需求。
但這個宣稱的風險在於:如果接下來的 AI 發展遇到瓶頸,如果 GPT-5 並沒有帶來質的飛躍,如果 agentic AI 沒有像承諾的那樣改變工作方式,Huang 的這句話就會變成一個被反覆引用的「錯誤預測」案例。科技產業的歷史充滿了「X 已死」或「Y 已到來」的豪語,而大多數最終都證明只是行銷話術。
不過,Huang 不是普通的科技執行長。他是帶領 Nvidia 從顯卡公司轉型成 AI 基礎設施巨頭的人,他的判斷在過去十年幾乎都是正確的。如果有人能對 AGI 的到來做出可信的判斷,他是有資格的人之一。問題是,他選擇了一個極為聰明的定義方式,讓這個宣稱幾乎不可能被證偽:如果你認為 AGI 還沒到,請先說清楚你認為 AGI 是什麼。
OpenAI 與核融合能源的佈局
Sam Altman 辭去了核融合新創 Helion Energy 的董事會職務,同時,Axios 報導 OpenAI 正在與 Helion 進行「高級談判」,討論購買電力的計畫。這條新聞乍看之下像是另一個科技巨頭的能源投資,但放到 AI 發展的脈絡下,意義就非常不同。
訓練和運行大型語言模型需要驚人的電力。Google、Microsoft、Meta 都在瘋狂尋找清潔能源,因為 AI 的能源消耗正在變成他們 ESG 承諾的巨大負擔。數據中心的用電量每年以兩位數百分比成長,傳統電網已經吃不消。核融合被認為是「清潔能源的聖杯」,如果成功,能提供近乎無限、零碳的電力。
Helion 是核融合領域最被看好的新創之一。他們採用的「磁慣性融合」技術路線,在理論上比傳統的 tokamak 更緊湊、更便宜。Altman 早在 2015 年就投資了 Helion,是早期支持者。現在他擔任 OpenAI 執行長,而 OpenAI 需要 Helion 的電力,這形成了一個完美的利益循環——至少在紙面上。
但核融合的商業化之路仍然充滿不確定性。科學界普遍認為,即使技術路線正確,要達到「發電成本低於燃煤」的程度,至少還需要十年以上的時間。Helion 宣稱 2028 年可以實現商業發電,這個時間表被許多專家認為過於樂觀。OpenAI 如果現在就簽訂購電合約,相當於在押注一個尚未證明的技術。
這個押注背後的邏輯是:如果 AI 真的如產業所預期的那樣指數級成長,電力會成為最大的瓶頸。現在的雲端供應商已經在搶電了,美國某些地區的電網已經無法支持新的數據中心。如果核融合真的成功,擁有早期供電合約的公司將獲得巨大的競爭優勢。
Altman 辭去 Helion 董事會職務,表面上說是為了「避免利益衝突」,但更可能的情況是:他正在把 OpenAI 變成 Helion 最早的客戶。這是一個雙贏的安排——OpenAI 獲得未來電力的優先權,Helion 獲得最需要大量電力的客戶來證明其技術。
從更大的產業視角來看,這件事顯示了 AI 巨頭對能源問題的焦慮。訓練一個 GPT-4 級別的模型消耗的電力相當於一個小鎮一年的用電量。如果 AI 真的變成「通用智慧代理人」,每天為數十億人提供服務,電力需求只會更大。Google 和 Microsoft 已經開始投資小型核反應爐(SMR),Meta 據報也在評估類似方案。核融合如果成功,將是解決這個問題的終極答案。
但這筆交易也引發了監管關注。Altman 既持有 Helion 的股權,又是 OpenAI 的執行長,這種關係即使在形式上做了「迴避」,仍然存在結構性的利益衝突。OpenAI 正在接受聯邦貿易委員會的反壟斷調查,這筆交易可能會成為焦點之一。這是科技產業的新現實:AI 和能源的融合,正在創造新的監管複雜度。
AI 內容審核與人類工作的邊界
Meta 宣布將在未來幾年內逐步用 AI 系統取代第三方承包商進行內容審核。這不是第一次有公司談論 AI 審核,但 Meta 是第一個明確說出「減少對人工的依賴」的大型平台。這句話的重量不同,因為 Meta 旗下有 Facebook、Instagram、WhatsApp,數十億用戶的內容安全和政策執行都依賴這個系統。
內容審核是人類歷史上最糟糕的工作之一。成千上萬的合約工,每天坐在螢幕前,對著仇恨言論、暴力影像、兒童性虐待材料,做出一個又一個的判斷。這份工作會造成創傷後壓力症候群、睡眠障礙、心理疾病。多年來,這些工人一直在組織工會、爭取更好的待遇,但根本問題是:讓人類做這件事,本身就是不人道的。
AI 審核的邏輯很直接:為什麼要讓人類看這些可怕的東西?讓機器來過濾不是更好?Meta 說他們的 AI 系統可以處理「重複性、高風險」的審核工作——那些需要無數次判斷「這是否違規」的任務。系統會自動下架明顯違規的內容,人類只需要處理邊緣案例和申訴。
問題是,AI 的判斷錯誤會有什麼後果?如果 AI 把一個合法的政治討論誤判為仇恨言論並移除,誰來負責?如果 AI 漏放了一個暴力影像,受害者可以追究平台責任嗎?這些問題的答案目前還不清楚,但 Meta 已經在做了。
同時,WordPress.com 宣布支援 MCP(Model Context Protocol),允許 AI 代理人直接起草、編輯、發布文章。這是另一個「AI 取代人類判斷」的場景。理論上,你現在可以讓 Claude 或 ChatGPT 自動產出內容、排程發布,整個過程不需要人類介入。
這兩件事放在一起,顯示了一個產業趨勢:平台正在把「判斷工作」從人類轉移給 AI。內容審核需要判斷,文章編輯需要判斷,這些曾經被認為是人類智慧核心的工作,正在被自動化。支持者說這釋放了人類去做更有價值的事,批評者說這是把決策權交給我們並不完全理解的系統。
AI 審核的風險在於偏見和不透明。Meta 說他們的 AI 模型經過「嚴格訓練」,但沒人知道訓練資料是什麼、如何權衡不同類型的內容、各地的法律和文化差異如何處理。一個針對美國用戶優化的模型,可能會對其他國家的內容做出荒謬的判斷。這不是假設,而是已經發生的事實——目前的 AI 審核已經被多次批評過度移除少數族群的內容。
更大的問題是問責。如果一個真人的帳號被 AI 錯誤停權,他可以申訴,但申訴也可能被另一個 AI 處理。這意味著,未來可能出現「AI 審核、AI 判斷申訴、AI 決定是否恢復」的全自動循環。在這個循環裡,人類被排除在決策之外,卻承受決策的後果。
Meta 的說法是「人類仍然會處理重要案例和申訴」,但什麼是「重要案例」?一個政治異見者的帳號被錯誤停權,算不算重要?一個小型企業的廣告帳號被暫停,算不算重要?這些邊界的定義,最終還是人類在做,但越來越多的人類正在被排除在實際執行之外。
AI 音樂詐欺的警訊
一個北卡羅來納州的男子 Michael Smith 承認用 AI 生成的音樂騙取超過 800 萬美元的版稅。這不是第一個 AI 詐欺案,但它可能是第一個「AI 內容大規模商業詐欺」的案例,而且揭示了 AI 音樂產業正在面臨的問題。
Smith 的手法並不複雜:他用 AI 生成數十萬首歌曲,然後用機器人帳號在串流平台上播放這些歌曲「數十億次」。每次播放,平台都會付版稅,積少成多,最後變成 800 萬美元。這個騙局能夠成功,是因為平台無法有效分辨「真人播放」和「機器人播放」,也無法分辨「真人創作」和「AI 生成」。
這件事背後有兩個問題值得關注。第一,AI 音樂的品質已經好到可以「以假亂真」。如果 Smith 用的是傳統的隨機噪音或低品質的 AI 音樂,平台可能早就發現異常了。他用的 AI 音樂品質足夠好,好到可以通過平台的內容品質檢測(如果有的話)。這意味著,AI 音樂和真人音樂的邊界正在消失。
第二,整個串流產業的版稅支付機制本身就有問題。當 AI 可以無限生成內容,當機器人可以模擬播放,版稅系統就變成了一個可以被遊戲化的提款機。Spotify 和 Apple Music 目前還沒有有效的方法來檢測和預防這種詐欺,因為他們的商業模式建立在「播放量等於價值」的假設上。這個假設在 AI 時代已經不再成立。
更大的問題是:這個案件只是冰山一角。如果一個人可以用 AI 騙取 800 萬美元,那整個產業有多少類似的案件還沒被發現?有多少「音樂人」實際上只是在運行 AI 生成器?有多少播放量來自機器人而非真人?這些問題沒有人能準確回答,因為檢測技術遠遠落後於生成技術。
對真正的音樂創作者來說,這是一個警訊。當 AI 音樂淹沒平台,當版稅被機器人瓜分,人類音樂人的收入只會更少。這不是假設性的擔憂,而是正在發生的現實。Sony 的研發部門正在開發技術來識別 AI 音樂的「原始素材」,正是因為他們看到了這個問題的嚴重性。
有趣的是,這個案件的另一個層面:它涉及的是「經濟詐欺」,而非「藝術抄襲」。Smith 不是在用 AI 模仿某個特定藝術家的風格,而是生成大量原創的 AI 音樂(如果 AI 音樂可以稱為「原創」的話)。這意味著,即使沒有版權問題,AI 音樂仍然可能摧毀音樂人的生計——純粹因為供給過剩。
未來,串流平台可能需要徹底重新設計版稅支付機制。也許是基於「真人收聽時間」而非「總播放量」,也許是引入某種「創作者身份驗證」。但無論如何,AI 音樂詐欺案的出現,標誌著內容產業進入了一個新階段:AI 不只是輔助創作的工具,也可以是詐騙的工具。
Samsung 的七百三十億美元豪賭
Samsung 宣布將在 2026 年投入 730 億美元用於 AI 晶片擴張,比前一年增加 22%。這個數字驚人,但更驚人的是它背後的產業邏輯:AI 晶片的競爭正在變成一場「軍備競賽」,而不參賽的公司註定被淘汰。
Samsung 的目標很明確:從 SK Hynix 手中奪回 Nvidia 記憶體供應商的主導地位。目前,SK Hynix 在 HBM(高頻寬記憶體)市場佔據絕對優勢,他們的 HBM3 和 HBM3E 是訓練大型語言模型的關鍵零件。Nvidia 選擇 SK Hynix 作為主要合作夥伴,意味著 Samsung 在 AI 晶片供應鏈中的地位正在下滑。
這不是 Samsung 可以接受的結果。Samsung 是全球最大的記憶體製造商,在 DRAM 和 NAND 市場都有壓倒性的份額。但在 AI 時代,主導權正在轉移——從傳統記憶體轉向高頻寬記憶體,從消費電子轉向數據中心。如果 Samsung 在 HBM 市場輸給 SK Hynix,他們不只是失去一個產品線,而是失去 AI 供應鏈的核心地位。
730 億美元的投資,目標是在產能和技術上全面追趕。Samsung 會擴大 HBM 產線、增加先進製程的產能、投資「未來導向」的領域如機器人晶片。這是一個「全押」的賭注,因為 AI 晶片的需求曲線目前仍然是向上的——大語言模型、多模態模型、代理式 AI,每一個新應用都需要更多的運算和記憶體。
這場競賽的贏家不只是 Samsung 或 SK Hynix,而是 Nvidia。當競爭者爭相為 AI 晶片擴產,供應增加,價格下降,Nvidia 的成本結構改善。當競爭者投資研發更好的記憶體技術,Nvidia 獲得更快的晶片。這是一個上游競爭受益下游的案例,而 Nvidia 是最終的受益者。
但這場競賽也有風險。如果 AI 發展放緩,如果 GPT-5 之後的模型沒有預期的那麼強大,如果企業對 AI 的投資熱潮消退,這些擴產的產能就會變成巨大的負擔。記憶體產業本來就是一個週期性很強的行業,2016 年的價格崩盤、2019 年的庫存危機,都讓 Samsung 吃過苦頭。現在再投入 730 億美元,相當於把更多雞蛋放在同一個籃子裡。
從全球視角來看,這場 AI 晶片軍備競賽還有地緣政治的層面。Samsung 和 SK Hynix 都是韓國公司,但記憶體製造分散在韓國、中國、越南等地。美國對中國的晶片出口限制,正在重塑這個供應鏈。Samsung 如果想在美國市場站穩腳跟,可能需要在美國本土擴產——他們已經宣布在德州 Taylor 建設新晶圓廠,但這個計畫也面臨延期和成本超支的問題。
如果只記一件事
AI 正在從「工具」變成「代理人」,而這個轉變的速度比我們準備好的更快。當 Nvidia CEO 宣稱 AGI 已到來、OpenAI 開始投資核融合電力、Meta 用 AI 取代人類做內容判斷、詐欺者用 AI 音樂騙取百萬美金——這不是未來學,這是正在發生的現實。
問題不在於「AI 會不會取代人類」,而在於「我們要如何設計邊界」。哪些判斷應該由機器做?哪些必須保留給人類?當 AI 的判斷錯誤時,誰負責?這些問題的答案,將決定 AI 是成為人類的賦能者,還是失控的自動化系統。現在做出正確的選擇,比五年後後悔來得重要。


