
Link: https://www.youtube.com/watch?v=8-boBsWcr5A
一、訪談背景
- 受訪者:Satya Nadella(微軟 CEO)
- 主持人:Dwarkesh Patel、Dylan Patel(SemiAnalysis)
- 地點:美國亞特蘭大的微軟新資料中心園區 Fairwater 2(目前號稱全球最強大的訓練中心之一)。
- 主軸: AI 相對於工業革命的歷史地位 微軟在模型、雲端、資料中心、晶片的策略 模型公司 vs 基礎建設公司誰拿走價值 全球主權 AI、地緣政治與長期佈局
二、Satya 對 AI 本質與歷史地位
- 他承認:「也許自工業革命之後,這是最大的一件事。」
- 同時又強調:「我們仍然在 very early innings(非常早期的局)。」
- 他引用 Raj Reddy 的隱喻: AI 應該是「守護天使(guardian angel)」或「認知增幅器(cognitive amplifier)」。 核心問題是:對人的效用是什麼? → 幫助人思考與決策,而不是神祕存在。
- 對 AGI / 超級智慧: 他不否認長期可能性,但短期更看重工程、科學突破、以及企業如何真正改變「工作流程」。 即使技術擴散比以往快,要看到宏觀生產力與經濟成長,仍需時間讓工作流程徹底重構。
三、微軟資料中心與基礎建設策略
1. Fairwater 資料中心設計與擴展
- 目標:每 18–24 個月把訓練容量「10 倍化」。
- Fairwater 2 + 未來的 Fairwater 4、威斯康辛園區: 以 petabit 級 AI-WAN 連接多個區域與園區。 可以把不同 site 的算力聚合起來做超大型訓練、資料生成與推論。
- 一棟建築內的機架數、cell 數量等細節不對外公開。
- 設計理念: 不只為一個模型訓練,而是:訓練 → 資料生成 → 推論,多種工作長期共用。 完全清楚 光纖連線數量、拓樸 等都已經是幾年前整個 Azure 的規模。
2. 為什麼不能為「單一模型」最佳化?
- 關鍵風險: 如果你把整個網路拓樸、冷卻、配電都為單一架構(例如某一代 dense 模型)最佳化, 萬一隔壁有人在 Mixture-of-Experts(MoE)或新架構上有突破,你的拓樸可能直接報廢。
- 所以: 不想成為「只幫一家公司客製」的 hoster,只賺少數大客戶的 bare metal 生意。 要建的是 能支援多個模型族譜(lineages)、多代晶片的「可轉換/可互換型艦隊(fungible fleet)」。 同時要考慮未來新晶片(GB200、GB300、Vera Rubin / Ultra)的功耗密度、散熱需求,不能一次性把一代規格堵死。
3. 為什麼曾經「踩煞車」?
- SemiAnalysis 指出: 2023 年微軟曾大幅預定機房、電力,是要在 2026–2028 超車 AWS。但後來釋出很多租約,被 Google/Meta/AWS/Oracle 接走。
- Satya 解釋 pause 的原因: 發現如果照原計畫走,會變成太像「幫單一模型公司作東」,而不是長尾多客戶的 hyperscaler。 想調整: 地理分布:不只美國,還要配合各地資料主權(例如 EU Data Boundary)。 工作負載 mix:訓練 vs 推論 vs mid-training vs data gen vs 一般雲工作。 世代節奏:NVIDIA 推出新一代的速度比原先預期快,不想被迫背 4–5 年折舊的一大坨舊世代。 現在改成: 速度很快的建設週期(亞特蘭大機房 90 天從交屋到上線)。 不同年份分批擴張,讓艦隊在各晶片世代間更均衡。
- 他強調: 微軟仍在積極擴建,也會: 自建 租賃(build-to-suit / managed capacity) 使用其他「Neocloud」的 GPU-as-a-service(如 Iris Energy、Nebius、Lambda 等),並把它們接入 Azure 市集。
四、AI 時代的商業模式與 SaaS 轉型
1. SaaS → AI:成本結構與定價
- 傳統 SaaS: 增量成本接近 0,重在 R&D 和客戶獲取成本。
- AI SaaS(例如 Copilot): COGS 大幅提高(模型推論成本),打亂既有的 SaaS 財務模型。
- Satya 的看法: 價格表現形式不會根本改變:仍是廣告、交易抽成、硬體毛利、訂閱、用量計費等。 訂閱本質:給你一個「消費權限包」,裡面有一定配額的模型使用;可分成標準 / Pro 等級,跟現在 coding assistant 類似。 真正差異是:如何在「包含多少 consumption」與「訂閱價格」間設計分級與毛利。
2. 雲轉型的類比:AI 也會擴大市場
- 當年從 on-prem 伺服器轉雲: 微軟曾擔心:同樣客戶搬上雲後,COGS 增加、毛利下降。 結果是:市場大爆炸,尤其是印度等新興市場可以以「分時租用」方式負擔 IT。 雲消滅了很多客戶端購買硬體的 working capital 壓力。
- 對應 AI: GitHub + VS Code 累積十幾年的工具生態,在 Copilot 出現的一年內,AI coding 助手的規模就可比肩過去的基盤工具。 相信 AI coding 會成為比「一般知識工作」更大的軟體工廠市場。 即便微軟市佔從 100% 掉到 25%,只要總市場變成 10 倍,絕對金額仍能巨幅成長。 過去例子:從客戶端伺服器時代高市佔,到雲端市佔較低,但業務規模反而大很多。
五、GitHub、Copilot 與「代理人(Agents)」願景
1. Coding agent 競爭與 GitHub 的位置
- 現況: 去年幾乎只有 GitHub Copilot 一家,營收 ~5 億美元。 現在 Cloud Code、Cursor、Cognition、Windsurf、Replit、OpenAI Codex 等加起來,整個市場年化約 50–60 億美元,微軟市佔降到 25% 以下。
- Satya 的態度: 對圖表很滿意,因為: 微軟仍在榜首。 所有競爭者幾乎都是 4–5 年內新創,是健康的創新信號(而不是老敵人 Borland)。 更重要的是:不論誰的 agent,絕大多數程式碼庫最後都回到 GitHub。 GitHub repo 建立、PR 數量創新高。 平均每秒有一位開發者加入 GitHub,其中約 80% 最終會落入某種 Copilot workflow 或用到微軟提供的 code-review agents。 微軟在這個領域有「很多次射門機會(shots on goal)」。
2. Agent HQ / Mission Control:多代理人控制平臺
- 在 GitHub Universe 公布的概念: GitHub 要成為「Agent HQ」,提供一個「Mission Control」介面。 開發者可以: 在一個訂閱裡,用「AI 版有線電視」式的方式同時調用:OpenAI、Anthropic(Claude)、Cognition、Grok 等多家 agent。 給每個 agent 指派任務,讓它們在各自分支工作。 透過 heads-up display 觀察它們的進度與改動,進行審查與 triage。 這需要大量「可觀測性」: 哪個 agent 在什麼時間對哪個 repo 做了什麼修改。 這將搭配 VS Code、GitHub 現有的 primitives(Git、Issues、Actions 等)一起演化。
3. 從「人用工具」到「代理人用工具」
- 兩個世界: 今天:人有一台電腦、Office、Copilot;人透過 UI 操作,各種 AI 仍是輔助。 未來:公司會為 AI 代理人配置「一台電腦」+身份+權限+安全+監控,讓它全自動工作。
- 微軟的定位: 現在是「終端用戶工具公司」,未來會變成「支撐代理人工作的基礎建設公司」: 為每個 agent 提供: 運算(Windows 365 等虛擬機) 儲存、資料庫、身分、權限、審計、監控,等等。 計費模式也會從「per user」變成「per user + per agent」。
六、模型 vs 腳手架(Scaffolding)、持續學習與「贏家詛咒」
1. 模型公司會吃掉所有價值嗎?
- 問題: 如果模型進化成「真正的同事」,能操作各種 UI,自主工作數小時甚至數天,模型公司是不是拿走所有毛利?
- Satya 的觀點: 模型可能會被商品化: 有開源 checkpoints,任何有資料的人都能拿來微調。 真正難的是「資料流動性(liquidity)」、「grounding」、「context engineering」以及「腳手架」。 「贏家詛咒」: 純模型公司即使做出最前沿技術,也可能距離被複製只有「一份權重」的距離。 真正收割價值的,反而是掌握資料與用例的人。
2. Excel Agent 舉例:不是 UI wrapper,而是中層整合
- Excel Agent 不是: 在螢幕上看像素、用 prompt 模擬人操作 UI。
- 它是: 在中間層(middle tier)深度整合 GPT 家族: 讓模型理解 Excel 原生物件(儲存格、公式、表格結構),而不是只有圖像。 以「教技能」的方式餵給模型,讓它像資深分析師一樣會用 Excel 的所有工具。 形成「Excel 內建一位分析師」的效果。
- 延伸到其他產品: 不只是包模型,而是把模型變成應用本身商業邏輯的一部分。
3. 持續學習與「一個模型統治世界」的 scenario
- 主持人提出: 若有一個模型大量部署、在所有工作中持續學習,而且可把所有經驗集中回單一權重,那會不會產生「智慧爆炸」,其他模型再也追不上?
- Satya 回應: 理論上如果全世界只用一個模型、所有學習都灌回去,那就是 game, set, match。 但實際世界: 各國、各產業、各公司對資料主權、安全、領域需求都不同。 開源模型會一直存在,形成制衡。 類似資料庫世界:永遠不會只有一種資料庫。 微軟要做的是: 基礎建設:能支援多種模型與架構。 模型:自家 MAI + OpenAI + 其他 Frontier 模型。 應用/腳手架:Office、安全、開發者工具、科學等領域的深度整合。 不押單一垂直整合,避免一條路走到黑。
七、微軟 x OpenAI 關係、新協議與 MAI 路線圖
1. 舊有與新協議的結構
- OpenAI 業務分兩塊: SaaS:ChatGPT 等產品。 PaaS / API:供開發者與企業調用模型。
- 新協議: OpenAI 的「stateless API」業務在基礎建設上對 Azure 獨家(少數美國政府例外)。 OpenAI 的 SaaS(如 ChatGPT)可以在其他雲/地方運行。 若任何第三方想用 OpenAI 模型 API(即使是合作開發的 SaaS): 只要是「stateless API」型態,就必須跑在 Azure 上。
2. 如何運用 GPT 家族與自家 MAI 模型?
- 未來 7 年: 微軟會盡量在各產品中使用 GPT 模型,並在其上做: 中期訓練(mid-training)、RL、fine-tuning, 把 GPT 變成更懂 Excel、Office、安全、企業知識的版本。
- 同時發展自家 MAI 模型: 目前: 文本模型:首次登場時在 Arena 排名第 13;只用 ~15k H100 訓練,是縮小版,用來驗證能力與 scaling law。 圖像模型:在 image arena 排名第 9,已用在 Copilot、Bing,主打成本優化與特定能力。 語音模型:用在 Copilot 語音,強調個性與產品優化。 下一步: 開發 omni 模型,把文字、聲音、圖像能力整合。
- 團隊與人才: 領軍的 Mustafa Suleyman(DeepMind / Inflection 前共同創辦人)+ Karen、Amar Subramaniam(原在 Google 做 Gemini 2.5 後訓練)、Nando(DeepMind 多模態專家)等。 目標是建立 world-class super-intelligence team。
- 七年之後假設不再有 OpenAI: 微軟希望自己已經有前列模型實力,同時可使用其他 Frontier 模型(例如 Anthropic,現已在某些 GitHub Copilot 流程中使用)。
八、自研晶片 vs NVIDIA:策略與現況
- 為什麼各家 hyperscaler 都做自家加速器? 因為 NVIDIA 在硬體上拿走很高毛利,大家希望透過自研晶片提高整體 ROIC。
- 現況比較: Google:TPU 最早期,產量預估 500–700 萬顆。 AWS:Trainium / Inferentia,估計 300–500 萬顆。 微軟:自研加速器數量目前明顯較少。
- Satya 的解釋: 任何新加速器最大的競爭對手其實是「前一代的 NVIDIA」: 前一代 NVIDIA 仍非常通用,所有模型都能跑。 所以你做自有晶片,必須在 整體 TCO(tokens / dollar / watt) 上有明顯優勢。 微軟已有自研 CPU(Cobalt)+ Intel+ AMD 的三元艦隊經驗: 會在 GPU 領域重現類似模式:NVIDIA + 自家 AMD 方案 + 自家加速器。 做自研的關鍵是: 要與自己的 MAI 模型家族「閉環設計」:微架構與模型共同演化。 不能只為別人的模型做一顆客製晶片,卻沒自己的產品需求支撐。 很關鍵的一點: 微軟擁有 OpenAI 系統設計與很多層級的 IP 使用權(雙方互相授權),包括早期一起建的大型超算。 所以他們在系統層、集成層其實有很深的 know-how。
- 定位: 一方面當「速度最快的 NVIDIA 合作夥伴」。 一方面在自家 MAI + 自研晶片上建立閉環,逐步擴大比重。
九、CapEx、自由現金流與「資本 + 知識密集」的新微軟
- 現況: 微軟 CapEx 在過去兩年已經翻了數倍。 其他科技巨頭也在大量舉債/發債投入機房建設。
- Satya 的說法: 微軟今天既是 capital-intensive 也是 knowledge-intensive 企業: 必須用軟體與系統 know-how 提高硬體投資的回報。 例:針對同一 GPT 系列模組,他們透過軟體最佳化,在 tokens/$/W 上拿到 5x、10x、甚至 40x 的改善。 研究算力應視為 R&D: 先決定「研究 GPU / R&D compute」的長期配額,視為研發成本。 其他建設則需嚴格跟實際需求/營收能力掛鉤。
- 對 labs 動輒喊出 2027–2028 年百億等級營收預期: 他理解獨立實驗室有募資壓力、需要樂觀 projection。 也承認他們確實交出成績(OpenAI、Anthropic 等)。 但作為微軟,他仍要從「實際需求與風險」出發規劃長期 CapEx,而不是盲目跟著 projection 起舞。
十、主權 AI、全球市場與美中競爭
1. 主權 AI 與資料主權
- 越來越多國家(EU、印度等)強調: 資料必須留在境內或特定邊界內。 希望避免對單一國家或公司完全依賴。
- 微軟的做法: EU Data Boundary:確保歐盟資料不會跑出歐洲。 在法國、德國建「主權雲(Sovereign Cloud)」。 推出 Azure Sovereign Services: 主權 Key 管理、機密運算(含 GPU 機密運算)、identity、compliance、e-discovery 等。 願意按照各國政策,從技術與合約層面提供主權保障。
- 他認為: 各國會透過要求多模型、開源模型等方式,降低集中風險。 微軟必須「在每個國家,按對方的合法合理需求來設計與執行」。
2. 與半導體產業的類比
- 全球目前在晶片上高度依賴台灣(TSMC),各國都意識到此風險。
- 美國、歐洲都堅持要建本土晶圓廠與 AI 工廠,提升供應鏈韌性。
- Satya 認為: 多國希望在關鍵技術上有「一定程度」的自給自足是合理的。 微軟等跨國公司有責任配合這些政策,展現長期承諾。
3. 美國科技與「信任」優勢
- Satya 提醒一組數字: 美國人口佔全球 4%,GDP 約 25%,但市值約 50%。 這很大一部份來自全球對美國資本市場與科技公司治理的信任。
- 因此: 「信任美國技術棧」可能比「單一模型多強」更關鍵。 美國政府與科技公司應該: 高調讓世界看到,美企在全球各地投資的 AI 工廠(FDI),並把這當成美國的「外交名片」。
十一、對整體格局的總結(Satya 的世界觀)
- AI 的歷史地位極高,但仍非常早期: 不要被短期 hype 迷惑,真正的生產力提升,需要企業與社會在 10–20 年內重塑工作流程。
- 微軟要同時在三層競爭: 基礎建設(雲、資料中心、網路、GPU/自研加速器)。 模型(OpenAI GPT 家族、自家 MAI、以及其他 Frontier 模型)。 應用/腳手架(Office、GitHub、Security 等,深度整合模型)。
- 不能把自己鎖死成「替單一模型公司做 host」: 這種生意利潤有限、風險巨大(技術路線一變,整個 CapEx 可能變負擔)。 微軟要做的是長尾 AI 工作負載的 hyperscaler,而不是某實驗室的代工廠。
- 模型並非唯一價值中心: 有開源、有多家 frontier lab,模型可能被 commoditize。 真正長期護城河在: 資料流動性與 grounding 腳手架 / tools / agents 平臺(如 Excel Agent、Agent HQ) 全球信任與主權合規能力。
- 公司決策視野不是 5 年,而是 50 年: 在建的是未來數十年的全球基礎建設與平台。 要在資本密集與知識密集之間,找出可持續、可被世界信任的路線。






