如果你隨機詢問一位矽谷的軟體工程師,他們現在的日常工作模式是什麼?你可能會得到一個令人驚訝的答案。前 Tesla AI 總監、OpenAI 創始成員 Andrej Karpathy 在最近參與「No Priors」Podcast 節目時,分享了一個極具顛覆性的個人經驗:自從去年十二月以來,他幾乎沒有親手輸入過任何一行程式碼。Karpathy 形容自己目前處於一種「AI 狂熱」(AI Psychosis)的狀態,每天花費長達 16 個小時,將自己的意志與構想「傳達」給 AI Agent,讓它們代為執行繁雜的程式撰寫工作。
這段對話不僅僅是關於單一開發者的工作習慣改變,更是對整個軟體工程、人工智慧研究體系、以及未來科技基礎架構的深刻剖析。當 AI 模型能夠自主設計實驗、收集數據、甚至自我優化時,人類在研究迴圈中的角色究竟為何?我們該如何面對能力參差不齊的模型?開源與閉源的拉鋸戰又將如何發展?Skill Issue: Andrej Karpathy on Code Agents, AutoResearch, and the Loopy Era of AI
解構 AI Agent 帶來的顛覆性變革
寫程式的終結?全面擁抱「Macro Actions」與平行處理
Karpathy 在訪談中提到,現在的工作模式已經不再適用「寫程式」(Coding)這個動詞。工程師的核心技能轉變為如何將大型任務拆解,並委託給多個平行的 AI Agent。
過去,程式開發的微觀動作是敲擊鍵盤輸入語法;現在,開發的單位變成了「宏觀行動」(Macro Actions)。例如,開發者會同時開啟十幾個專案分支,分別指派不同的 AI Agent 負責獨立的功能模組。Agent A 負責規劃新功能的實作路徑,Agent B 負責查閱最新的 API 文件,Agent C 則負責撰寫測試架構。
在這種模式下,工程師面臨的壓力發生了質變。以往我們等待編譯或等待 GPU 運算,現在我們面對的是「當 Agent 正在執行任務時,我還能給其他 Agent 派發什麼工作?」的焦慮。Karpathy 指出,當前許多 AI 應用的失敗,往往歸咎於「技能問題」(Skill Issue),也就是人類尚未完全掌握如何精準設定系統提示詞(Prompt)、建立有效的記憶庫機制,或是妥善安排 AI 的協作流程。如今,個人的產出極限不再取決於打字速度,完全取決於你能夠同時駕馭多少「Token 吞吐量」。
軟體 UI 的消亡:以「Dobby」為例的 Agent 驅動智慧家庭
為了解釋 Agent 的潛力,Karpathy 分享了他親自打造的家庭自動化 AI 助手「Dobby」。傳統上,為了控制家中的智慧音響、燈光、空調、百葉窗和安全監控,使用者必須在手機裡安裝六到七個不同的 App,並在各種選單中切換。但 Karpathy 只需透過 WhatsApp 向 Dobby 下達自然語言指令。Dobby 會自動在區域網路內掃描 IP 尋找 Sonos 音響,自行上網搜尋 Sonos 的 API 端點並進行逆向工程,最後直接寫出控制程式碼來播放音樂。
更有趣的是,Dobby 整合了影像辨識模型來監控門外攝影機。當發現有變化發生時,Dobby 會主動發送附有圖片的 WhatsApp 訊息告知「聯邦快遞的貨車剛停在門口,您可能有包裹」。
這帶來了一個極具深度的反思:我們真的需要這麼多專屬的應用程式嗎?App 的存在,本質上是因為人類無法直接與機器的 API 溝通,因此需要圖形使用者介面(GUI)作為翻譯層。當 AI Agent 具備了理解人類意圖並直接呼叫 API 的能力,GUI 的存在價值將大幅降低。未來的企業可能只需專注於提供乾淨、穩定、具備權限管控的 API,Agent 將成為黏合所有數位服務的終極介面。
AutoResearch:將人類移出研究迴圈的終極型態
除了個人應用,Karpathy 將這套邏輯延伸到了他最熟悉的 AI 研究領域,催生了「AutoResearch」的概念。
身為一位擁有二十年經驗的資深研究員,Karpathy 過去習慣手動調整機器學習模型的超參數。他原本對自己調校的 NanoGPT 模型充滿信心。然而,當他放手讓 AutoResearch 系統在夜間自動執行優化迴圈後,隔天醒來卻發現,AI 找出了他忽略的權重衰減(Weight Decay)設定,以及更優異的 Adam 優化器參數,達到了更低的驗證損失(Validation Loss)。
這個結果證明了一件事:在具有明確客觀評估標準的領域(如程式執行速度、模型損失函數),人類研究員的「經驗自信」反而成為了進步的瓶頸。
Karpathy 提出了一個極具啟發性的想法:將整個研究機構的運作邏輯寫成一份 program.md(Markdown 格式的系統提示文件)。這份文件定義了研究團隊的風險承受度、嘗試新架構的頻率、甚至是否需要無意義的每日會議。只要有明確的程式碼定義,AI 就能對「研究機構的運作方式」本身自行迭代出產出效率最高的研究流程。
AI 能力的「參差不齊」與未來模型演化
儘管 AI 在特定領域展現出神級表現,但 Karpathy 也毫不諱言當前模型的缺陷。他形容與現在的 AI 互動,就像是在跟一個「擁有系統工程師資歷的極端天才博士生,同時卻又具備十歲小孩心智」的奇怪實體對話。
這種能力的「參差不齊」(Jaggedness),根源於各大實驗室當前的訓練機制。現代大型語言模型嚴重依賴人類反饋強化學習(RLHF)進行微調。如果一項任務可以輕易被驗證(例如:程式碼是否能通過單元測試、數學題的最終答案是否正確),模型就能在這個方向上得到極致的優化,表現出如光速般的進步。
相反地,如果任務缺乏客觀的評估標準,例如要求模型「講一個笑話」,它往往會給出五年來一成不變的罐頭笑話。因為幽默感難以被精準驗證與給予獎勵,所以模型在這些柔軟、充滿人性幽默的維度上,進展極度緩慢。
這也帶出了 Karpathy 對於「模型物種形成」的預測。目前多數大型 AI 公司都在追求一個能夠解決所有問題的單一巨型模型。但就如同自然界中生物為了適應不同環境而演化出特定的器官,未來的 AI 生態系勢必會走向專業分化。我們將會看到保留了核心認知能力、但在特定專業領域極度特化的輕量化模型,這將大幅提升推論的效率與經濟效益。
分散式算力的逆襲:打造 AI 界的算力蜂群
順著 AutoResearch 的脈絡,Karpathy 探討了另一種打破 AI 研究壟斷的可能性。既然訓練與優化模型所需的運算量極大,但「驗證」一個新的模型架構是否有效卻非常便宜,這種不對稱性完美契合了分散式運算的架構。
過去在科學界,有尋找外星智慧或蛋白質折疊等專案,讓全球志願者貢獻個人電腦的閒置算力來解決重大科學難題。如果在 AI 領域引入類似的機制,結合不被信任的外部工作節點(負責大量嘗試錯誤的運算)與可信任的核心節點(負責快速驗證結果),那麼由全球社群組成的「算力蜂群」,甚至有機會在創新速度上超越那些擁有數萬張 GPU 叢集的封閉型頂尖實驗室。
傑文斯悖論下的軟體工程師需求
很多人擔心 AI 寫程式的能力如此強大,軟體工程師是否即將面臨大規模失業?Karpathy 透過勞工統計局的數據與經濟學視角,給出了審慎樂觀的看法。這裡同樣引用經濟學中的「傑文斯悖論」(Jevons Paradox):當一項技術提升了資源的使用效率,導致價格下降時,反而會激發出巨大的潛在需求,最終增加該資源的總消耗量。
Karpathy 舉了自動櫃員機(ATM)的經典案例。當初 ATM 發明時,人們以為銀行櫃員會大量消失。結果因為開設分行的營運成本大幅下降,銀行開設了更多分行,最終反而聘用了更多的櫃員來處理更高價值的客戶關係與複雜業務。
同理,目前的軟體開發成本依然過於高昂,導致許多潛在的自動化需求未被滿足。當 AI 讓軟體開發成本趨近於零、甚至讓軟體變成一種隨時可修改的「短暫消耗品」時,市場對於數位化的需求將會爆發。在可預見的未來,負責調度 AI 資源、制定宏觀架構的工程需求,將會迎來一段顯著的增長期。
開源與閉源的黃金平衡
在探討產業結構時,Karpathy 表達了對目前開源模型生態的讚賞。目前開源模型的發展進度,大約穩定落後封閉前沿模型(Frontier Models)約六到八個月。
這是一個非常健康的狀態。在作業系統領域,我們有封閉的 Windows 和 macOS,同時也有驅動了全球六成以上伺服器的 Linux。企業與開發者需要一個安全、開放且不受單一公司控制的基礎設施。
如果全球的頂尖智慧完全集中在少數兩三家實驗室的黑箱中,將會帶來極大的系統性風險。歷史經驗一再證明,權力與資源的極度集中往往會引發問題。開源模型的存在,不僅滿足了大量基礎商務應用與終端消費者的需求,更扮演了維持產業權力平衡的重要角色。
機器人的發展瓶頸與「實體與數位」介面商機
隨著純數位領域的創新以極快速度進行,大家自然會把目光轉向實體世界的自動化:機器人技術。
Karpathy 基於過去在自動駕駛領域的豐富經驗指出,操控物理世界的「原子」遠比操控數位世界的「位元」困難一百萬倍。實體世界的變數太多、收集資料的成本太高、且容錯率極低。因此,Embodied AI與通用機器人的發展速度,勢必會落後於數位 AI 的演進。
然而,這中間存在著一個巨大的商業斷層:數位超級大腦需要吸收現實世界的數據,也需要干涉現實世界的能力。未來的熱門商機將會集中在「感測器」(Sensor)與「致動器」(Actuator)的數位化介面。
教育本質的重塑:把知識教給 Agent,讓 Agent 來教人類
最後,AI 的強大能力也正在從根本上重塑知識傳遞的模式。Karpathy 提到他近期開發的微型專案「MicroGPT」。他花了數十年的時間思考,將龐雜的大型語言模型訓練架構,精簡到只剩下 200 行包含神經網路架構、優化器與訓練迴圈的 Python 程式碼。
如果在過去,他會親自錄製教學影片,一步一步向學生解釋這些程式碼的運作原理。但他現在意識到,這種做法已經過時了。
這 200 行極度精煉的程式碼,是人類在領域知識上的結晶。而一旦這些程式碼被建立出來,現今的 AI Agent 完全有能力看懂它。因此,教育者的工作不再是親自教導人類,而是撰寫一份「教學技能指令」(Skill),告訴 AI:「如果你要向一位初學者解釋這段程式碼,你應該先介紹這幾個概念,再切入核心,並隨時透過提問確認他的理解程度。」
只要 AI 搞懂了,它就能以無限的耐心、針對每個學習者的背景與理解速度,將複雜的知識以一百種不同的方式進行客製化講解。這意味著傳統的技術文件、靜態教學影片可能將被淘汰,未來的教材將是一份專門寫給 Agent 閱讀的 Markdown 文件。
TN科技筆記的觀點
Karpathy 在討論分散式 AutoResearch 時提到了一個深具哲理的觀點。過去,我們透過捐獻金錢來支持癌症研究機構;未來,當研究過程高度自動化後,你擁有的 GPU 運算能力(Flops)將成為最直接的貢獻力。這種「算力資本化」的趨勢,正在改變資源分配的邏輯。當解決問題的關鍵不再是人力編制,而是演算法與算力時,掌握算力就等於掌握了創新的話語權。
Karpathy 也坦言,離開頂尖實驗室後,個人的技術判斷力不可避免地會開始衰退,因為無法接觸到最底層的模型權重變化與未來路線圖。當 AutoResearch 這樣的系統成為常態,研究員將逐漸依賴 AI 提供的最優解,而失去在反覆試錯中培養出的「直覺」。一旦我們不知道 AI 是「如何」得到這組完美的超參數時,人類將失去除錯與跳脫局部最佳解的底層能力。當科技發展過度依賴少數無法解釋的黑箱系統,整個產業的脆弱性將大幅上升。
支持TN科技筆記,與科技共同前行
我是TN科技筆記,如果喜歡這篇文章,歡迎留言、點選愛心、轉發給我支持鼓勵~~~也歡迎每個月請我喝杯咖啡,鼓勵我撰寫更多科技文章,一起跟著科技浪潮前進!!>>>>> 請我喝一杯咖啡
在此也感謝每個月持續請我喝杯咖啡的讀者以及新加入的讀者們,讓我更加有動力為各位帶來科技新知!
以下是我的 threads 也歡迎追蹤、回覆、轉發喔!
>>>>> TN科技筆記(TechNotes)






















