
Tesla Gigafactory Texas 空拍照
過去我們談 Tesla,通常會先想到電動車、電池、自動駕駛、Robotaxi,或是最近幾年被 Musk 不斷強調的 Optimus 人形機器人。但如果把這幾年的脈絡連起來看,會發現 Tesla 早就不只是把自己定位成一家車廠。它真正想做的,是把真實世界中的 AI 系統,從資料、模型、車輛、機器人一路整合到晶片。
這也是 Terafab 值得注意的原因。表面上看,它像是一座超大型晶圓廠計畫;但如果從 Tesla 過去自製 FSD 晶片、推出 Dojo 與 D1 訓練晶片,再到最新的 AI5 inference processor 來看,Terafab 更像是 Tesla 垂直整合邏輯走到更底層之後的自然延伸。以前 Tesla 把電池、馬達、軟體、充電網路與車輛製造往自己手上收。現在,它開始把同一套邏輯放到 AI 晶片上。Tesla 早就看出晶片是自駕的核心
Tesla 自製晶片的端倪,其實可以追溯到 2019 年的 Autonomy Day。當時 Tesla 發表 Full Self Driving Computer,也就是後來常被稱為 HW3 的自駕電腦,並表示新車開始搭載自家設計的自駕晶片。這件事在當時看起來像是 Tesla 為了自動駕駛而做的一次硬體升級,但回頭來看,它更像是一個關鍵轉折。Tesla 不是只想把外部供應商的晶片裝進車裡,而是開始用自己的 AI 模型需求,反過來定義車端運算硬體。
自動駕駛真正困難的地方,不只是車子能不能看到路,而是它要能在極短時間內理解環境。攝影機看到的是影像,但車子需要判斷的是車道、行人、機車、紅綠燈、施工區、突然切入的車輛,以及各種人類駕駛很擅長製造的小驚喜。這些判斷都要在車端即時完成,不能全部丟回雲端慢慢算。
所以 FSD 晶片的意義,不只是省成本,而是把 Tesla 的神經網路、資料回饋、車端推論與安全需求綁在一起。對傳統車廠來說,晶片比較像供應鏈零件;對 Tesla 來說,晶片開始變成自駕系統本身的一部分。
這就是第一個伏筆。如果自動駕駛是核心能力,那晶片就不能永遠只是外購零件。
Dojo 與 D1 把戰場從車上拉回資料中心
如果 FSD 晶片解決的是車端推論,那 Dojo 和 D1 解決的就是訓練端問題。
Dojo 這個名字本身就很有意思。Dojo 原本是日文「道場」,也就是練武、修行、訓練的地方。放在 Tesla 身上,它指的不是車上的晶片,而是用來訓練 AI 的超級電腦。車子每天在路上遇到真實世界的複雜場景,這些資料被收集回來後,就需要一個後台系統把它變成模型能力。Dojo 的角色,就是讓 Tesla 的 AI 回到「道場」裡反覆訓練。
Tesla 的自駕資料來自路上行駛的大量車隊。這些車每天都會遇到雨天、夜晚、逆光、臨停車、施工路段、無號誌路口,以及各種非常人類的交通行為。這些資料如果能被有效標註、訓練,再透過軟體更新回到車上,就會形成 Tesla 最有價值的 AI 閉環。
車隊收集的資料越多,模型越大,訓練需求就越高。於是 Tesla 在 2021 年 AI Day 發表 Dojo 超級電腦與 D1 晶片。D1 是 Tesla 為 AI 訓練設計的客製化晶片,採用 7 奈米製程,Tesla 當時的設計是把 25 顆 D1 組成一個 training tile,再把多個 tile 串接成更大的訓練系統。
這裡的重點不是 Tesla 要不要打敗 Nvidia,而是 Tesla 對 AI 基礎設施的判斷已經很清楚。當資料、模型與應用場景都高度特殊時,通用晶片不一定永遠是最理想的解法。Tesla 的場景不是一般雲端 AI,而是自動駕駛。它需要處理大量影片、時序資訊、空間理解與真實世界長尾案例,所以它想做一套針對自己工作負載最佳化的訓練系統。
簡單說,FSD 晶片讓車子在路上即時判斷,Dojo 則讓 Tesla 在資料中心裡訓練下一代模型。車子收集資料,後台訓練模型,模型更新回到車上,車子再繼續收集更多資料。這個飛輪如果轉起來,Tesla 就不只是在賣車,而是在營運一個分布於真實世界的 AI 學習系統。
Cortex 2 說明 Tesla 不是只押自研晶片
Dojo 不代表 Tesla 已經完全擺脫 Nvidia,也不代表 Tesla 所有 AI 訓練都只靠自研晶片。更準確地說,Tesla 目前採取的是混合算力路線 Cortex:一方面繼續擴大外部 GPU 算力,另一方面保留自研 silicon 的長期選項。
Cortex 可以理解成 Tesla 在 Gigafactory Texas 內部建置的 AI 訓練算力基礎設施。它不是像 D1 那樣的單一自研晶片,而是一組用來支撐 FSD、Robotaxi、Optimus 等 AI 訓練工作的 onsite compute cluster。Tesla 在 2025 年 Q4 Update 中提到,Cortex 1 已經有超過 100k H100 equivalent 的產能,而 Cortex 2 當時仍在建設中,目標是在 2026 年上半年讓 Texas onsite compute 規模增加超過一倍。
到了 2026 年 Q1,Tesla 進一步表示 Cortex 2 已經上線,並開始執行 training workloads。公司也說會繼續擴大 onsite training infrastructure,以確保 AI 產品與服務開發有足夠算力,同時持續推進 Dojo 3 的 custom silicon development,目標是在長期降低訓練成本。
Cortex 2 代表 Tesla 仍然需要大量現成 GPU 算力,特別是用 H100 equivalent 這樣的方式來衡量訓練能力。Dojo 3 則代表 Tesla 沒有放棄自研晶片,希望未來在特定工作負載上取得成本與效率優勢。
換句話說,Tesla 並不是天真地說我要全部自己做。它更像是在建立兩套能力。短期靠成熟 GPU 叢集補足訓練需求,避免模型開發被算力卡住;長期則透過 Dojo 3 和後續自研晶片,嘗試把成本曲線壓下來。這種做法也符合 Tesla 一貫的風格:先用外部成熟方案把速度撐起來,同時在內部建立下一階段的替代能力。
這也是 Tesla 與傳統車廠很不同的地方。傳統車廠多半會把晶片視為供應鏈管理問題,但 Tesla 更像是把晶片視為產品架構問題。當晶片會影響模型速度、成本、功耗、安全與產品節奏時,它就不再只是採購部門的事,而是公司戰略的一部分。
AI5 讓晶片從自駕走向 Physical AI
如果說 FSD 晶片服務的是車端自駕,Dojo 與 Cortex 2 服務的是模型訓練,那 AI5 就是 Tesla 下一階段的推論核心。
Tesla 在 2026 年 Q1 Update 中提到,FSD v14.3 已經強化 reinforcement learning 訓練階段,改善對長尾案例的處理,也升級 vision encoder 以提升低能見度場景下的感知能力,並重寫 AI compiler,讓模型迭代更快,同時把 runtime inference latency 最多降低 20%。這些細節說明,Tesla 不只是單純堆算力,而是在同時改模型、編譯器與車端推論效率。
同一份文件也提到,隨著 Robotaxi 與 Optimus 擴張,Tesla 正把製造範圍延伸到半導體製造,以確保晶片供應足夠且具備韌性。Tesla 表示,它與 SpaceX 的合作目標是建立一座大型晶片工廠,垂直整合 logic、memory 與 advanced packaging,並從 Gigafactory Texas 裡的 Tesla-owned Research Fab 開始。Tesla 同時表示,下一代 AI5 inference processor 已在 2026 年 4 月完成 final chip design。
Tesla 正在把自駕服務從個人車輛推向 Robotaxi,也準備把 Optimus 從展示原型推向更大規模的生產敘事。這些應用都需要高度可靠、低延遲、低功耗的推論能力。車子要在道路上即時做決策,機器人要在工廠或家庭裡理解環境並控制動作,這些都不是單純雲端模型可以解決的問題。
AI 不只是回答問題,而是要能看、能動、能判斷、能控制實體設備。當 AI 從螢幕走進道路、工廠、倉庫和家庭,晶片就不只是算力工具,而是讓 AI 進入現實世界的基礎零件。所以 AI5 的意義代表 Tesla 開始把下一階段的 AI 推論能力,設計成一種平台能力。未來無論是車、Robotaxi 還是 Optimus,真正的問題都會回到同一件事:如何用足夠低的成本,在現場執行足夠可靠的模型。
Terafab 是這條晶片路線的放大版
理解 FSD 晶片、Dojo、Cortex 2 和 AI5 之後,再看 Terafab,就不會覺得它只是 Musk 又開了一張巨大支票。
Terafab 比較像是 Tesla 過去十年垂直整合邏輯的半導體版本。過去 Tesla 建 Gigafactory,是為了掌握電池、車輛與能源產品的製造節奏;現在它談 Research Fab 和 Terafab,是因為它認為未來 AI 晶片會成為 Robotaxi、Optimus 與 AI data center 的共同瓶頸。
這比較接近 Musk 系公司共同的 AI 算力基地,而不是單一 Tesla 零件工廠。對 Tesla 來說,未來需要車端推論晶片;對 Optimus 來說,需要機器人端推論晶片;對 xAI 和 SpaceX 來說,資料中心與太空應用也可能需要高度客製化的晶片。當這些需求被放在一起,Terafab 就不只是「Tesla 想自己做晶片」,而是 Musk 系企業想把算力供應鏈往內部收。
SpaceX 也已提出在 Texas 建設 Terafab 的計畫,初期投資可能達 550 億美元。這是 SpaceX 與 Tesla 的 joint project,目標是取得自有 AI 晶片供應;Musk 也曾表示,Terafab 將使用 Intel 的 14A 製程來生產晶片。
這些數字很大,大到需要先放一點煞車。半導體不是有錢就能立刻成功的產業,先進晶圓廠需要設備、材料、製程整合、良率工程、EDA、生態系和大量經驗。Tesla 很會做工廠,但晶圓廠是另一種怪獸。汽車工廠做不好是產能爬坡慢;晶圓廠做不好是良率直接變成哲學問題,大家只能對著缺陷密度沉思人生。
Intel 14A 是關鍵合作,但不代表 Tesla 已經變成晶圓廠
Terafab 另一個關鍵是 Intel。
Musk 曾表示 Terafab 將使用 Intel 的 14A 製程來生產晶片。這對 Intel Foundry 來說具有重要象徵意義,因為 Intel 一直希望證明自己可以成為外部客戶信任的先進製程代工夥伴,而 Tesla 與 Musk 系公司如果真的採用 Intel 14A,會是一個很有話題性的案例。
Intel 參與,不代表 Tesla 已經能獨立營運先進晶圓廠,也不代表 Terafab 的量產時間表已經清楚。更合理的看法是,Tesla 需要 Intel 的製程、封裝與製造經驗,而 Intel 需要一個大客戶來驗證自己的 foundry 轉型。
這比較像是一個高度實驗性的合作,而不是已經確定的大規模商業量產成功案例。Tesla 想把 AI 晶片供應鏈往自己手上收,Intel 想證明自己的先進製程與 foundry 模式仍然有價值。這種合作很有想像空間,但也充滿未知。
這和 Tesla 過去的電池策略很像。Tesla 不一定所有電池都自己做,但它必須深度理解電池,必須有自己的產線能力,也必須能影響供應鏈方向。晶片現在正在變成類似的位置。只要 AI 晶片會決定產品能力、成本與擴張速度,Tesla 就會想把它納入自己的控制範圍。
如果 AI 只是雲端聊天機器人,Tesla 其實不需要做到這一步。它可以租算力、買 GPU、使用外部晶片,再把模型接進車機或 App。這樣已經很複雜,但還不至於要碰晶圓廠。
可是 Tesla 想像的 AI 不是這樣。它想像的是 AI 走進道路、工廠、家庭、倉庫與能源系統。這種 AI 不只是產生文字或圖片,而是要控制方向盤、機械手臂、電池系統、移動平台與真實設備。
在這個世界裡,晶片就是 AI 的肌肉與神經。模型再強,如果沒有足夠便宜、足夠可靠、足夠低功耗的推論晶片,就很難大規模部署。這也是為什麼 Tesla 從 FSD 晶片走到 Dojo,再走到 Cortex 2、AI5 和 Terafab,背後其實是同一個問題:如果未來 AI 要進入物理世界,誰能掌握最底層的算力供應?
不能只買晶片,要理解晶片;不能只設計晶片,要靠近製造;不能只等外部供應鏈,要建立自己的試驗場。
這條路非常難,也不一定會按照 Musk 的時間表前進。半導體製造是世界上最難的工業系統之一,不是喊一聲垂直整合就能開外掛。但方向已經清楚:AI 時代的競爭正在往下沉,從 App 沉到模型,從模型沉到資料中心,從資料中心沉到晶片,再從晶片沉到製程、封裝、電力與供應鏈。





















