
執行摘要
觀察視角 — 本文從資本配置者的角度,用機器學習的過度擬合框架,分析精英教育體系產出的人才在環境轉變時的結構性脆弱點。
核心判斷 — 精英教育體系最佳化的是已知問題的求解速度,但真實世界的獎勵函數是另一張考卷。多數精英在 30-40 歲之間會撞上一面隱形的牆:題目變了,但他們的解題肌肉記憶還卡在舊的訓練集上。
主要風險 — 這篇文章的框架本身也可能過度簡化。教育不只有工具性價值,人際網路、思維訓練、社會信任都是副產品。「把教育當成唯一最佳化目標」的結構性代價,跟「教育有沒有用」是不同層次的問題。本文處理的是前者。
Watch List — 你目前的收入有多少比例來自「解已知題」的能力?如果 AI 明天能做到你大部分的日常工作,你剩下的那一小塊值多少錢?你上一次做一個「沒有標準答案」的決策是什麼時候?
假設失效觸發 — 如果你所在的產業仍然高度依賴證照與合規(醫療、法律、特定工程領域),這篇文章的適用性會打折扣。但即便如此,AI 對這些領域的滲透速度可能比你想的快。
一、訓練集與測試集
我在考大學那年考得不好。
不夠好到讓我進入所有人期待我進的那些科系。最後我只能靠還不錯的數學分數進入人文社會學院。對一個在升學體系裡一路被訓練成考試機器的台灣理工學生來說,這基本上等於系統判你出局。
後來我轉系到資工,再後來念了清華的碩士,進了矽谷,一路做到 Sr. Staff。收入到了精英路徑的預期軌道上。從履歷上看,我花了十幾年時間把當年考試的偏差修正回來了。
但從我現在的角度回頭看,那次考試失利是我人生中發生過最有價值的事情之一。
它逼我在很早的階段就意識到一件事:考試成績最佳化的那個目標函數,跟真實世界獎勵你的那個函數,根本是兩回事。
用機器學習的話來說,精英教育是一台過度擬合機器。
它拿一組特定的訓練資料(教科書、考古題、標準化測驗),用極高的運算資源(補習班、家教、十幾年的反覆訓練),把你的模型調整到在這組資料上達到接近零誤差的表現。然後告訴你:你準備好了,去面對真實世界吧。
問題是,真實世界不是訓練集,而是測試集。
訓練集裡,每道題都有標準答案。測試集裡,多數問題連題目本身都是模糊的。訓練集裡,評分標準是公開透明的。測試集裡,獎勵函數會隨時變動,而且沒人會事先告訴你規則改了。訓練集裡,你花越多時間練習,分數越高。測試集裡,方向錯了的話,努力只會讓做白工。
我在矽谷的前幾年還沒有感覺到這件事。因為工程師的工作,至少在 IC (Individual Contributor) Junior 和 Senior 階段,仍然很像一場進階版的考試:有明確的技術問題、有可量化的效能指標、有 peer review 機制。你寫的 code 好不好,跑一下 benchmark 就知道。這對一個訓練集滿分的人來說,根本如魚得水。
真正的問題發生在我開始接觸投資之後。
市場不給你考古題。沒有人會在季報公布前把答案洩漏給你。更關鍵的是,市場的獎勵函數會隨著參與者的行為而改變。一個在 2015 年有效的投資策略,到了 2020 年可能完全失效。策略本身沒有變,但太多人學會了同一套解法,導致 alpha 被套利到消失。
這就是 overfitting 最致命的地方:你以為你學會了一個真理,但你學會的只是一個在特定資料分布下碰巧有效的模式。一旦分布漂移 (distribution shift),你的模型就爆掉了。
精英教育的問題不是它教的東西沒用。它教的解題能力、邏輯推理、資訊處理速度,這些都有價值。問題是它讓你相信這些能力就是全部,然後讓你帶著這個信念走進一個完全不同的環境。
二、精英路徑是一張保費昂貴的保險單
在金融裡有一組概念:凹性報酬 (concave payoff) 跟凸性報酬 (convex payoff)。簡單說,凹性報酬是你投入越多,邊際回報遞減。凸性報酬是你投入到某個臨界點之後,回報突然爆發性成長。
保險是典型的凹性報酬。你付保費,換到的是一個確定的、有上限的保障。天花板很明確,地板也很明確。不會讓你暴富,但也不會讓你歸零。
選擇權是典型的凸性報酬。你付一筆權利金(下檔有限),買到的是一個理論上無限的上行空間。多數時候這筆錢會蒸發掉,但一旦押對方向,回報可以是幾十倍甚至幾百倍。
精英路徑就是一張保險單。
你花二十年拿到頂尖學歷、進入大廠、沿著 IC 或管理軌往上爬。這條路的地板很高:矽谷的 Sr. Staff 或 Principal 等級,收入大致落在全球高分位區間(因資料而異,但多數統計指向前 1% 附近)。但天花板也非常明確。除非你跳去創業或做投資,你的財富曲線基本上是線性的:每年多一點,但不會有數量級的跳躍。
更關鍵的是,這條路的保費非常昂貴。我說的保費指的是機會成本,跟學費無關。
你花在最佳化考試成績、最佳化面試技巧、最佳化績效考核的那些時間和注意力,全部是從另一種能力的發展中抽走的。什麼能力?判斷「應該解什麼問題」的能力。承受模糊性 (ambiguity tolerance) 的能力。在沒有評分標準的情境下做決策,然後承擔後果的能力。
這些能力不會出現在任何一張成績單上。但它們恰好是創造凸性報酬的關鍵原料。
我自己的例子。在 Synopsys 做到 Staff 之後,我開始把越來越多時間放在投資上。最初幾年純粹是價值投資那套教科書打法:看財報、算評價、找被低估的公司。像是在工作之外再去考另一張試卷。
結果?我精挑細選的一籃價值股,加總起來的報酬率,常常連把錢全部丟進 S&P 500 都打不贏。
這件事逼我很認真地去想一個問題:我是不是又在過度擬合?
答案是:對。我把教科書價值投資當成真理,但忽略了市場環境已經改變。低利率時代、被動投資興起、量化交易普及,這些結構性變化讓傳統價值投資的 alpha 大幅縮水。我的模型在 training data(教科書案例、巴菲特的歷史績效)上表現很好,但在 test data(2015 年以後的實際市場)上失效了。
後來我慢慢開始加入總經分析、技術面指標、市場情緒與資金結構的判斷。我沒有放棄基本面,但我開始承認基本面只是多個變數之一。短中期的價格由情緒、資金結構、主要玩家的部位與槓桿水位主導。長期走向才比較接近總體經濟和企業基本面。
這個轉變的過程很痛苦,因為它要求我放棄一個我花了很多年建立的、能讓我感覺「我懂了」的模型。過度擬合的心理代價就在這裡:你對舊模型的信心越強,轉型的阻力越大。
三、從 PvE 到 PvP
如果你有打過遊戲,你可能知道 PvE (Player vs. Environment) 和 PvP (Player vs. Player) 的差別。
PvE 就是打電腦。怪物的行為模式是固定的,攻略是可以查的,只要你的等級夠高、裝備夠好、操作夠熟練,破關只是時間問題。
PvP 是跟真人對打。對手會學習、會適應、會騙你、會在你以為安全的時候突然偷襲。沒有固定攻略,因為攻略一旦公開就會失效。
精英教育訓練你打 PvE。而且訓練得非常好。
從國小到研究所,你面對的基本上都是 PvE 環境:課綱是固定的、考試範圍是公開的、評分標準是透明的。你的對手不是其他學生(雖然感覺上是),你的對手是那張考卷。只要你比考卷強,你就贏了。
進入職場的前幾年也還是 PvE。技術問題有明確的解法、code review 有客觀的標準、績效考核至少還有一些可量化的指標。對一個 overfitted model 來說,這些環境都還在 training distribution 的範圍內。
轉折點通常發生在 Senior Manager 到 Director 這個階段。
到了這個層級,你的工作內容會出現一個根本性的變化:從「解題」變成「選題」和「政治」。你要決定團隊該投入哪些專案、該放棄哪些方向。你要管理向上的關係、橫向的合作、向下的激勵。你要在資訊不完全的情況下做判斷,然後為結果負責。
這是 PvP。
而且是一種特別殘酷的 PvP,因為規則是隱性的。沒有人會告訴你「在這家公司,Director 升 VP 的真正標準是什麼」。表面上的答案是績效、影響力、領導力。實際上的變數包括你跟哪個 VP 走得近、你的專案是不是剛好在公司的戰略重心上、你有沒有在對的時間點做了對的政治表態。
我見過太多技術能力極強的工程師,在 Staff 到 Director 這個區間卡了五年、十年。不是因為他們不夠聰明,是因為他們的模型是 PvE 模型,而遊戲已經切換到 PvP 了。
他們還在想「我只要把技術做到最好,公司一定會看到」。但在 PvP 裡,最厲害的玩家不一定是操作最好的,而是最懂得讀局勢、分配資源、管理對手預期的。
我自己在矽谷也卡過關,我早期也是相信只要把技術做好,就可以拿到對應的報酬。
我花了很長時間才接受一個事實:在大組織裡,技術能力的邊際報酬在某個點之後就趨近於零。你的 code quality 從 95 分提升到 99 分,對你的職涯影響幾乎是零。但你跟 VP 的一次有品質的 1:1 對話,可能直接改變你下一年的升遷結果。
這就是獎勵函數的現實。精英教育從來沒有教你這件事,因為承認這件事就破壞了「努力就有回報」的基礎。
我最後選擇離開矽谷去全職做投資,一部分原因是我在投資裡找到了一個更適合我的 PvP 環境。市場的 PvP 是匿名的、純粹的,不用管辦公室政治,你的損益表就是你的績效考核。當然市場的 PvP 也殘酷得多,因為對手包括頂尖的量化基金和全球專業投資人,但至少規則是一致的:對的就是賺錢,錯的就是虧錢。
四、AI 時代的 Alpha
最後要談一個正在發生的事。
過去一年,我在建構 Miyama Capital 的過程中大量使用 AI。從宏觀經濟分析、數據分析、內容生產到行政流程,幾乎每個環節都有 AI 的介入。這個經驗讓我對一件事有了非常直覺的理解:
AI 正在把「解已知問題」的成本降到接近零。
我以前花三天才能完成的產業分析,現在用 AI 兩個小時就能跑出初稿。我以前要翻十幾份研究報告才能拼湊出來的宏觀圖景,現在可以讓 AI 先做第一輪整合。程式碼、文件、翻譯、數據清理。這些過去需要專業技能的工作,正在快速被自動化。
這對精英教育的過度擬合問題意味著什麼?
意味著你花二十年訓練出來的那些能力,例如快速吸收資訊、結構化輸出、在已知框架內高效執行,同時也正是 AI 最擅長的事情。你的訓練集跟 AI 的訓練集高度重疊。
在投資的世界裡,beta 是你透過承擔市場風險就能拿到的報酬。alpha 是你做了一些市場沒做到的事情之後,額外賺到的報酬。beta 是隨大盤漲跌,alpha 是超額報酬。
精英教育訓練出來的能力,正在從 alpha 變成 beta。
十年前,你會寫 Python、能做數據分析、英文流利,這些在台灣的就業市場上是稀缺能力,能讓你拿到超額報酬。現在?AI 會寫 Python,AI 能做數據分析,翻譯軟體的品質越來越逼近母語。這些能力沒有消失,但它們從 alpha 變成了 beta 以後,就是基本門檻,不是競爭優勢。
那什麼是 AI 時代的 alpha?
我觀察到幾件 AI 目前做不好、或者結構上很難做好的事:
第一,判斷「應該解什麼問題」。AI 非常擅長在你定義好問題之後給你答案。但決定什麼問題值得解、什麼問題根本不成立、什麼問題的答案會在六個月後因為環境變化而失效,這些判斷需要的是對現實世界的直覺理解,需要的是在雜訊裡辨認 signal 的能力。這不是靠更多資料訓練就能解決的。
第二,承擔後果。AI 可以給你建議,但它不會為建議的結果負責。在投資裡,按下買入鍵的是你,承受回檔的是你,在凌晨兩點看著帳面虧損 30% 還能不恐慌賣出的也是你。
第三,建立信任。投資管理、創業、領導力,這些高報酬活動的核心都是信任。人會把錢交給一個他信任的人管理,不會交給一個 AI。至少目前不會。信任需要時間、需要一致性、需要在壓力下展現出來的品格。這些東西,目前沒有任何模型能複製。
把這三件事加在一起,你會得到一個結論:AI 時代真正有價值的,不是「知道答案」的能力,而是「問對問題,然後為答案的後果負責,同時讓別人信任你」的能力。
精英教育幾乎完全沒有訓練這些。
三種凸性結構
我沒有標準答案。如果我給你一個漂亮的五步驟解決方案,那我自己就犯了過度擬合的錯,拿一個特定的個人經歷去 generalize 成通用建議。但從資產配置的角度,我觀察到三種不同的凸性曝險結構。
路徑 A — 槓鈴配置 (Barbell)
保留現有精英路徑的高地板,同時在邊際時間和資源上建立下檔有限、上不封頂的小部位。投資、寫作、個人品牌、side project 都算。代價是主業績效可能從 95 分掉到 85 分,短期看不到回報。這本質上是一個時間維度的槓鈴策略:主體部位在安全資產(穩定薪資),衛星部位在高凸性標的。取決於你目前的財務狀況。
路徑 B — 從解題者到出題者 (Regime Switch)
在你的專業領域裡,從 beta 提供者轉型成 alpha 創造者。核心轉變是從執行分配給你的任務,切換到定義問題、設定議程、影響方向。這是一種角色的 regime switch,獎勵函數從「執行效率」切換到「方向判斷」。代價是政治風險上升,因為出題天然帶有政治性。需要足夠的行業資本和關係網路作為緩衝。
路徑 C — 換一張全新的獎勵函數
直接離開精英路徑,進入一個地板低但天花板不封頂的遊戲。創業、投資、自由工作。代價最高,你放棄的是精英路徑的高地板,換到的是一個完全不同的風險收益結構。
我自己走的是路徑 C。我走這條路的原因很單純:繼續留在原路徑上的隱性成本已經超過了跳出來的顯性風險。這只是一個單純的風險計算。
三條路徑的代價結構不同,但都比「不調整模型然後祈禱分布不會漂移」好。選哪條不重要,重要的是你選之前知道自己放棄了什麼。
免責聲明
本文內容僅反映作者個人觀察與分析框架,不構成任何職涯、教育或投資方面的專業建議。文中提及的個人案例經過簡化處理,用於說明思考框架,不代表可複製的路徑或績效。每個人的背景、資源與風險承受能力不同,重大決策請依自身情況評估或諮詢專業顧問。


