半導體業界近期出現一股ASIC晶片(應用特定積體電路)熱潮,各大科技巨頭紛紛投入自研晶片,用以加速人工智慧運算與降低成本。在這篇文章中,將從技術演進、供應鏈版圖、市場規模預測到投資機會等面向,全面解析ASIC晶片產業的最新動態與投資觀點。文章內容涵蓋製程、記憶體、封裝技術的發展差異,全球主要玩家的佈局,2025–2027年市場規模成長預測,ASIC與GPU/CPU/NPU的定位比較,以及台灣供應鏈廠商的商機與風險,最後提出我的中長期結論。希望幫助讀者快速掌握AI ASIC產業鏈的發展現況與未來趨勢。
一、ASIC技術演進趨勢:製程、記憶體與封裝新突破
隨著人工智慧運算需求爆炸式增長,ASIC晶片在技術上也不斷演進,以追求更高效能與更佳能耗表現。我認為可以從製程技術、記憶體規格以及先進封裝三方面來理解這種演進趨勢。
製程技術:7nm邁向3nm時代
製程微縮是提升ASIC晶片效能與能效的關鍵。近年來ASIC已迅速從7奈米進展到5奈米、4奈米,如今正邁向3奈米世代。例如,亞馬遜AWS的Inferentia 2推論加速晶片採用7nm製程,2024年推出的Trainium 2則進階到5nm;2025–2026年間,AWS計畫推出的Inferentia 3/Trainium 3更將採用3nm製程。再看Google,其第五代TPU晶片TPUv5是7nm製程,2024年的TPUv6e提升至5nm,預計2025年的TPUv6p和下一代TPUv7則採用3nm製程。Microsoft自研的代號「Maia」「Cobalt」AI晶片同樣規劃從5nm進展到3nm。由此可見,3奈米將在2025–2026年成為雲端AI ASIC的主流製程節點。相較7nm,3nm晶體管密度更高、速度更快,在相同性能下功耗可降低,大幅提升AI晶片執行深度學習模型時的效率。我認為這是雲服務業者不惜投入巨資研發先進製程ASIC的原因之一,因為對超大規模AI工作負載而言,先進製程帶來的能效提升,長期成本節約相當可觀。不過,先進製程的挑戰在於成本攀升與良率風險。一顆3nm ASIC的設計與光罩費用高達數億美元,唯有像AWS、Google這樣年需求量數萬顆的大型雲端業者,才能分攤這種成本並從中受益。台積電等晶圓代工廠正積極協助這些客戶導入最新製程,2025年台積電預計營收將有中雙位數成長,其中相當動能來自3nm AI晶片的拉貨。可以預期,2奈米量產後(約2026–2027年),這些雲端ASIC很可能繼續率先採用,以保持對NVIDIA GPU等既有解決方案的性能優勢。
記憶體規格:HBM高頻寬記憶體 vs. DDR/LPDDR
記憶體子系統對AI晶片的效能影響極大。目前ASIC晶片主要採用三種記憶體架構:高頻寬記憶體HBM、傳統DDR,以及低功耗DDR(LPDDR)。它們各有應用場景與差異:
HBM(High Bandwidth Memory):HBM是一種垂直疊層的高速記憶體,透過寬總線提供極高的資料傳輸頻寬。AI訓練和大型推論負載非常仰賴記憶體帶寬,因此許多高階ASIC都搭配HBM。例如Intel Habana Gaudi 2訓練晶片配備96GB的HBM2E(6疊堆,每疊16GB),提供高達2.45 TB/s的記憶體頻寬;新一代Gaudi 3升級到128GB HBM2E(8疊),頻寬達3.7 TB/s。AWS的Trainium 2則將HBM提升到96GB HBM3,頻寬約2.9 TB/s。相較之下,GPU如NVIDIA A100的HBM2頻寬約1.6 TB/s,H100的HBM3約3 TB/s,可見ASIC搭配HBM已能媲美甚至超越頂級GPU的記憶體性能。優點:HBM帶來驚人的資料吞吐量,適合訓練大型模型時的海量矩陣乘法運算。缺點是在晶片封裝中集成HBM技術難度高、成本昂貴,需要先進封裝(如CoWoS,稍後討論)支援。因此HBM主要用於雲端HPC/AI加速卡等不計成本追求效能的場合。根據麥格理研究,未來先進封裝產能大擴充下,HBM相關封裝需求將大增。例如台積電的CoWoS產能2024年~2025年將擴充近一倍,以滿足HBM整合需求。

資料來源:EDN
DDR5:傳統DDR記憶體仍是通用處理器(如CPU)和部分ASIC採用的主記憶體方案。它強調容量大、成本較低,頻寬雖不及HBM,但透過多通道並行也能提供不錯的總帶寬。例如Microsoft自研的Cobalt 100資料中心CPU透過12通道DDR5記憶體,可支援最高576GB容量。DDR的優勢在於靈活性與經濟性,易於擴充至數百GB以上的容量,適合需要大量一般用途記憶的工作負載(如雲端中的應用伺服器)。但DDR的單位頻寬/功耗較低,不太適合超高吞吐的AI訓練。所以我們看到,ASIC晶片中DDR更多用於CPU類的晶片(如AWS Graviton系列CPU採用DDR,因其主要取代傳統Xeon處理器用途),或者是作為ASIC加速卡與主機系統溝通的緩衝記憶體,而非主要計算快取。

資料來源:Kingstone
LPDDR(低功耗DDR):LPDDR原本應用於手機等行動裝置,強調低功耗和適度頻寬。有趣的是,Meta自研的推論ASIC「MTIA」系列選用了LPDDR5記憶體。例如第一代MTIA搭配128GB LPDDR5,頻寬約204.8 GB/s。相比HBM幾千GB/s的帶寬,LPDDR5明顯低很多,但LPDDR功耗更低且成本相對便宜。推測Meta將MTIA定位於邊緣或資料中心內的大規模分散式推論,此時單顆加速器未必需要極致帶寬,而更看重功耗效率和成本。因此選用LPDDR能在降低功耗同時,提供比標準DDR稍高的頻寬密度。我認為LPDDR在一些注重能效比的AI晶片(如智慧攝影機、手機AI處理器、或中等規模推論卡)會是不錯的選擇,介於高階HBM和一般DDR之間。總的來說,HBM主攻高階AI訓練,DDR服務通用運算與大容量需求,LPDDR則在低功耗場景提供平衡方案,各有其應用領域。

資料來源:美光
先進封裝技術:CoWoS、SoIC、SPR齊頭並進
隨著摩爾定律微縮漸趨極限,先進封裝(Advanced Packaging)成為繼續提升晶片性能的關鍵手段。在AI ASIC領域,台積電主導的CoWoS與SoIC技術備受矚目,此外新興的電源配送技術如SPR也將帶來革命性影響。將分別介紹:
CoWoS(Chip-on-Wafer-on-Substrate):CoWoS是台積電的2.5D先進封裝技術,即將邏輯晶片與HBM等記憶體晶片一起,透過矽中介層(interposer)集成在同一基板上。換言之,在晶片與封裝基板之間插入一片矽中介板,晶片和HBM都貼在這板子上,訊號透過矽中介板內的TSV(矽穿孔)連接。優點:大幅增加晶片間I/O密度和頻寬,縮短連線距離降低延遲,是將HBM緊鄰GPU/ASIC的必要手段。NVIDIA的A100/H100 GPU、AMD MI250/MI300加速器、以及前面提到的AWS Trainium、Intel Gaudi等,都使用台積電CoWoS封裝整合HBM。據台積電透露,CoWoS技術從2012年推出時乏人問津,到2023年因AI需求爆發而產能供不應求。台積電2025年仍在大舉擴充CoWoS產能,預計當年產能將比2024年翻倍。CoWoS本身也在演進,例如台積電提供不同尺寸規格:CoWoS-S、CoWoS-L等(S代表矽中介層,小尺寸,L則採用有機中介層,大尺寸,可容納更多HBM)。簡而言之,CoWoS已是高效能AI ASIC的標配封裝技術,它讓異質整合(Heterogeneous Integration)成為可能,把計算晶片與高頻寬記憶體緊密結合,滿足AI對巨大頻寬的渴求。

資料來源:數位時代邱品蓉整理
SoIC(System on Integrated Chips):SoIC是台積電開發的3D晶片垂直堆疊技術,被視為下一代封裝的關鍵。與CoWoS的2.5D平面整合不同,SoIC透過晶圓對晶圓(WoW)或晶片對晶圓(CoW)直接鍵合的方式,將多顆裸晶垂直疊疊在一起。晶片之間透過數千條微小TSV直接連通,不需要矽中介板,因而訊號傳輸路徑更短、I/O密度更高,可進一步提升運算效率。簡單比較:CoWoS是在基板上“並排”放多顆晶片,SoIC則是把晶片“上下”堆疊。兩者其實並非競爭,而是互補關係——SoIC可用來將異質晶片堆成一顆,然後這顆“3D SoC”再通過CoWoS整合HBM等更多元件。
實際案例是AMD最新的MI300X加速器:底層用CoWoS連接8顆GPU計算晶片與8疊HBM3記憶體,上方再利用SoIC把2顆CPU晶片堆在GPU上。這樣就實現了CPU+GPU+HBM三者的高度集成。SoIC的意義在於突破傳統封裝平面尺寸限制,讓更多晶體管在三維空間疊加。台積電表示SoIC技術目前已能垂直堆疊多達12顆裸晶,未來還會持續增加。截至2024年初,AMD成為首個採用SoIC量產的客戶(上述MI300系列),蘋果、輝達、博通等也都在試驗SoIC方案,預計2025–2026年有望正式量產商用。
挑戰在於SoIC需要極高的加工精度和良率控制——晶片表面需足夠平整才能緊密接合,疊疊愈高良率愈難。目前台積電在台灣竹南新廠投入SoIC產能,樂觀預期2025年起逐步放量。我個人認為,SoIC將是延續摩爾定律的重要方案之一,長期看有革命性意義。短期內CoWoS仍是主流封裝,但展望未來5–10年,SoIC有潛力大幅改變晶片封裝市場格局。投資人也應關注相關SoIC概念股(台積電供應鏈中的設備、材料廠)。

資料來源:SEMI、TSMC
SPR(Super Power Rail):SPR是台積電提出的新技術,可說是在製程與封裝交界的一項電源配送網路創新。簡單來說,SPR即晶片後段製程的背面供電技術(Backside Power Delivery),透過在晶片背面布設電源線,以大幅降低供電電阻和功耗損失。傳統上,電源必須從晶片頂部穿過層層金屬走線供給晶體管,隨著製程演進,供電瓶頸日益嚴重。而SPR透過將晶圓鍵合到載板、翻轉研磨等步驟,把晶片背面露出,再在背面直接布電源線。這樣一來,訊號走線與電源走線分屬晶片正反兩面,各行其道,不僅減少了電源線阻抗,也釋放正面更多布線資源給訊號。
廣泛應用SPR後,預估2030年前可為業界節省約960億美元的電力成本(因為晶片功耗降低)。台積電計畫在2nm節點引入SPR(業界也稱BSPDN, Backside Power Delivery Network),預計2026年底量產。因此可把SPR視為製程技術的一部分,但它需要額外的鍵合封裝步驟,因此將其納入先進封裝討論範疇。
總結:SPR代表未來晶片電源設計的一大趨勢,它與前述的SoIC等堆疊技術結合,將進一步改善高性能ASIC的能效表現。我認為投資人可以留意哪家晶圓代工和設備廠商掌握此項關鍵技術(台積電明顯領先),因為能耗是AI時代的核心成本之一,任何節能突破都具備巨大的商業價值。


資料來源:TSMC
二、ASIC供應鏈版圖與關鍵玩家分析
了解技術趨勢後,我們再來看看誰在打造這些ASIC晶片。與傳統標準化CPU/GPU不同,ASIC的供應鏈更為客製化、多樣化。主要的參與者包含雲端服務業者本身、協助設計的IC廠商、晶圓代工與封裝廠、以及下游的系統組裝商。

資料來源:麥格理、自行整理

資料來源:兆豐投顧
AWS、Google、Microsoft、Meta等超大規模雲服務商近年各自布局了多款ASIC晶片。逐一說明其現況:
AWS(亞馬遜雲端)
AWS是最早投入自研ASIC的雲廠之一,目前已推出Graviton系列CPU、Inferentia系列AI推論晶片,以及Trainium系列AI訓練晶片。其中,Graviton是基於Arm架構的雲端處理器,用於取代部分Intel Xeon處理器以提高效能/成本比。2022年推出的Graviton3採用5nm製程,2024年的Graviton4提升至台積電4nm。據AWS自己透露,過去兩年其雲端執行的CPU工作負載中,已有超過50%部署在Graviton上——這證明自研CPU已為AWS帶來顯著效益。
在AI加速方面,AWS的Inferentia專注於推論,例如第二代Inferentia 2用於加速機器學習推理,採7nm製程並搭載32GB HBM2e記憶體;Trainium則聚焦訓練,Trainium 2計劃以5nm亮相並配備96GB HBM3。值得注意的是,AWS雖然自行定義晶片規格,但高度依賴台灣供應鏈:晶圓由台積電代工,後端實現多由合作夥伴完成(如Alchip協助完成Inferentia/Trainium的實體設計及佈局,屬於所謂“後端(back-end)”設計服務)。封裝階段若用到CoWoS,多數由台積電內部完成,但系統組裝則交給台廠代工,包括智邦負責AI加速卡硬體整合,緯穎負責伺服器整機組裝。
事實上,世芯-KY因參與AWS ASIC專案而受益匪淺——僅Inferentia 2一款晶片就貢獻了2023年營收的約50%。這說明雲端大廠與專業IC設計服務公司形成了互利共生的關係:雲廠掌握應用和資金,IC設計公司提供技術實現,而代工與組裝廠負責把晶片製造出來並裝上伺服器。AWS案例堪稱這種供應鏈模式的代表。
Google(谷歌)
Google自2015年起研發TPU(Tensor Processing Unit)專用晶片,是業界公認的AI ASIC先驅。目前Google TPU已發展至第5代、第6代,主要用於支援Google自身的搜索、翻譯、AlphaGo等AI業務以及Google Cloud的AI加速服務。
根據麥格理的資料,TPUv5p採用7nm製程,由Broadcom協助設計,封裝採用TSMC CoWoS,整合了95GB的HBM2e記憶體,頻寬約2.76 TB/s,於2023年量產。TPUv6分為推論優化的v6e(代號Trillium)和訓練優化的v6p兩版:v6e是5nm製程、HBM3記憶體(32GB,頻寬1.6 TB/s),2024年推出;v6p則規劃3nm製程,大約2025年問世。展望下一代,TPUv7預計在2025–26年採用3nm+4nm異質整合(核心部分3nm,I/O部分4nm)並由聯發科協助後端設計。Google選擇MediaTek作為新合作夥伴頗引人注目——過去TPU系列一直是與Broadcom合作,此次轉向台灣IC設計龍頭,據報導是考量成本和產能優化。
這也顯示,台灣IC設計公司正加入美國ASIC生態鏈,例如聯發科利用自身工程資源承接Google大單,有望開拓數十億美元的新營收。除了TPU外,Google也在開發自用的伺服器CPU。麥格理報告提到Google的“Axion”代號專案:第一代Axion CPU採5nm(由Marvell提供後端服務),已於2024年上半年試產,支援高達576GB DDR5記憶體;第二代Axion 2預計採用3nm,2026年推出,由台積電旗下的創意電子(GUC)負責物流管理和部分設計。儘管Google官方未對外詳述這類CPU,但業界推測其用意在於降低對傳統CPU供應商(如Intel、AMD)的依賴,類似AWS Graviton的戰略。
我認為Google長期將形成雙線發展:一方面持續演進TPU專用加速器,鎖定AI訓練/推論最高效能;另一方面打造自有CPU,用於雲端基礎設施以優化成本。兩者背後,都離不開台積電先進製程及台廠供應鏈的支撐。從投資角度看,Broadcom、聯發科、台積電、Quanta廣達(組裝夥伴)等皆因Google專案受益,值得關注。
Microsoft(微軟)
微軟近年在AI晶片研發上也有大動作,傳聞中的Project Athena即是其AI加速晶片計畫。根據披露的信息,微軟開發了代號“Maia”和“Cobalt”的一系列晶片:Maia系列似乎是AI訓練加速器,Maia 100採5nm製程,由GUC協助設計並採用CoWoS先進封裝,配備64GB HBM2e記憶體,頻寬1.8 TB/s,已於2024年上半年試產;Maia 200則規劃3nm製程,2026年量產。
Cobalt系列則是Arm架構的資料中心CPU,Cobalt 100為5nm、具備DDR5十二通道記憶體介面(對應大容量主記憶體需求),Cobalt 200升級3nm,預計2026年推出。微軟的ASIC專案同樣深度依賴台灣夥伴——台積電代工、創意電子提供設計服務與晶圓物流管理,緯穎與英業達參與伺服器組裝。
值得一提的是,微軟尚未大量對外發表這些晶片的性能,目前看來仍在內部測試階段。微軟本身擁有Azure雲服務和OpenAI戰略合作,需要大量AI算力支撐,未來若其自研ASIC成功,將有力牽制NVIDIA地位。同時,也會挹注台廠如台積電、緯穎、創意的業績。相對而言,這些專案的風險在於研發進度與成果未知、能否實現量產商用尚待觀察,對供應鏈廠商而言短期可能貢獻有限,但長遠看具備巨大潛在需求。
Meta(臉書)
Meta近年大舉投入AI基礎建設,除了採購大量GPU外,也啟動了自研ASIC計畫。Meta開發了“MTIA”(Meta Training and Inference Accelerator)系列晶片,主攻推論加速領域。根據供應鏈資訊:第一代MTIA採用7nm製程,由Broadcom協助設計,搭載128GB LPDDR5記憶體。第二代MTIA v2進階至5nm,沿用128GB LPDDR5但頻寬提升至約205 GB/s,預計2025年下半年問世。第三代MTIA v3鎖定3nm製程,2025下半年試產、2026年量產。可見Meta以約一年一代的速度推進ASIC研發,路線圖非常激進。
同時,Meta也在開發自有CPU(CPU Gen1),據稱採用3nm由Socionext(日本IC設計公司)協助開發,可能是用於特定服務的Arm架構處理器,2026年推出。從供應鏈分工看,Meta的ASIC由Broadcom主導設計(至少前兩代MTIA),晶圓仍在台積電生產,Quanta廣達與Wiwynn緯穎負責硬體系統整合。廣達與緯穎都是資料中心伺服器大廠,Meta過去就是他們的重要客戶(如緯穎相當依賴Meta訂單),現在擴及AI加速硬體,ODM廠無疑將從中受惠。
我認為Meta推ASIC的動機在於:其生成式AI、內容推薦等應用規模龐大,推論成本驚人,需要透過自研晶片來優化每瓦效能與每美元算力。Broadcom在客製ASIC領域經驗豐富,拿下Meta訂單也順理成章。值得注意的是,Broadcom目前在AI客製晶片市場居於龍頭地位,據稱市佔率達70%。其ASIC方案據稱比NVIDIA GPU具75%的成本優勢、在AI推論時每瓦效能高出50%。這些都是驅動Meta等客戶採用Broadcom ASIC的原因。對Broadcom而言,來自超大客戶的定制晶片業務非常可觀——有分析指出,Broadcom 2025財年AI相關收入將達到約19–20億美元,同比大增60%,並預期2027年AI年收入挑戰500億美元(這數字聽起來驚人,可能包含了Broadcom併購VMware後的軟體+硬體綜合營收)。不管如何,Meta與Broadcom的合作已經讓台積電、廣達、緯穎等台廠分享了成果,例如台積電為滿足Broadcom/Meta訂單正積極擴張先進封裝產能。投資人可關注Broadcom相關供應鏈,以及後續Meta ASIC在實際應用中的表現是否達標,這將影響此合作能走多遠。
Intel(Habana Labs)
雖然Intel本身不是雲服務商,但Intel仍透過併購Habana Labs進軍AI專用晶片市場,以供應商身份為各大資料中心提供ASIC解決方案。Habana推出的Gaudi系列晶片定位為訓練用加速器,直接與NVIDIA A100/H100競爭。目前Gaudi 2採用7nm製程(由台積電代工)、96GB HBM2E記憶體,頻寬2.45 TB/s,已在2023年下半年供貨;Gaudi 3則升級5nm製程和128GB HBM2E,頻寬達3.7 TB/s。Intel為提升Gaudi性能,也採用了台積電CoWoS封裝來整合HBM。值得一提的是,Intel在這些ASIC研發中也借助了外部力量:報告披露Gaudi系列的後端設計由Alchip協助,封裝卡裝配由智邦與緯穎代工。
Intel未來還規劃了代號“Jaguar Shores”的後續產品(可能是Gaudi 4或新架構),可見其不放棄在AI加速領域與NVIDIA分庭抗禮的野心。Intel路線與雲服務商有所不同:Intel是產品化策略,研發通用解決方案賣給各家雲端或企業(近期Azure也在測試Gaudi超算方案)。這種模式下,Intel需要構築自己的軟體生態與客戶支持體系,挑戰不小。但對供應鏈而言,只要Intel持續投片生產,台積電、封裝代工等仍有穩定商機。Intel的加入也給客戶更多元選擇,關注Intel在ASIC市場的市佔變化,以及這對NVIDIA壟斷地位的衝擊。
綜上,ASIC供應鏈呈現一個「雲端業者主導—半導體廠商支援—台灣代工生態系承接」的格局。超大規模公司利用ASIC來優化自身業務,同時帶動了專業IC設計公司(如Broadcom、Marvell、世芯、創意、聯發科等)的新營收來源,也讓晶圓代工龍頭台積電和台灣眾多電子代工廠分享成長果實。
台積電無疑是核心受益者:包括AWS Inferentia/Trainium、Google TPU、Microsoft Athena、Meta MTIA、Intel Gaudi等幾乎清一色在台積電流片製造。「TSMC takes all」,無論ASIC還是GPU,只要AI熱潮持續,台積電幾乎把訂單都攬下了。這也是為何2025年起市場預期台積電的HPC類(高效能運算)業務營收占比會節節提升,抵消手機晶片成長趨緩的影響。
再者,台灣的ODM/OEM廠如廣達、英業達、緯穎、鴻海、智邦等,過去做伺服器或網通設備代工,如今延伸到AI加速硬體領域,接獲國際大廠的組裝委託,營收可望水漲船高。這些公司已在紛紛擴充產能、投入研發以配合客戶需求。供應鏈各環節都有其不可或缺性,投資人可以從中挑選具競爭優勢的廠商佈局(以下章節將重點分析台灣廠商)。但同時也要注意,客製ASIC市場競爭正在加劇:NVIDIA意識到ASIC對其GPU王國的威脅,也開始研發專用晶片並強化軟硬體綁定策略;AMD則憑藉收購Xilinx擁有FPGA/ACAP技術,試圖提供可程式化加速方案作為ASIC的替代。有傳聞稱NVIDIA下一代Blackwell架構可能推出ASIC版本,直接為大客戶客製AI晶片。因此,未來幾年將是ASIC聯盟 vs. GPU陣營的拉鋸戰,不過不論哪方勝出,「台積電+台灣供應鏈」仍將是最大贏家之一。
三、ASIC市場規模與成長預測 (2025–2027)
從市場層面看,AI ASIC晶片的需求正在快速崛起,未來數年有望成為半導體產業新的成長引擎。根據公開資料與研究機構預測,我總結了2025~2027年的市場規模變化和成長動能:
首先,整體AI晶片市場將快速擴大。有分析估計2024年全球AI晶片市場規模約在500億美元上下,到2027年可望翻倍至約1,100~1,200億美元。也就是說,未來三年年均複合成長率超過30%。這其中包括GPU、各類ASIC、NPU加速器等所有用於AI運算的處理器。尤以資料中心級的AI加速卡為主力。麥格理的研究圖表顯示,2025–2026年AI伺服器出貨雖可能對傳統伺服器出貨有些「侵蝕」(因為一台AI伺服器價值高,可替代多台一般伺服器),但AI伺服器營收將大幅提升。換言之,未來伺服器市場的成長幾乎全來自AI需求拉動,即便整體出貨量不暴增,單價和價值結構會因AI硬體而水漲船高。
在這股潮流中,ASIC的占比正逐步提高。目前資料中心AI加速器仍以NVIDIA GPU為絕對主力,市佔可能高達90%以上。但展望2025年以後,隨著Google TPU、AWS Trainium等陸續放量,NVIDIA的市佔將有所下降,ASIC、自研晶片的占比明顯上升。麥格理和IDC的數據顯示:2024年NVIDIA主導了AI加速板的出貨成長,但2025年起專用ASIC出貨增速將趕上並接近GPU。保守估計,2025年ASIC(包含雲端自研與第三方ASIC)可能佔據整體AI加速晶片市場約20–30%的份額,2027年提高到接近40–50%。也就是說,ASIC正從補充角色走向舞台中央。像Broadcom這類ASIC供應商預期樂觀,該公司預計自身AI相關年營收2025年將增長約60%,2027年挑戰500億美元。若Broadcom一家公司就達此目標,代表整體市場規模會相當可觀(或Broadcom市佔非常高)。雖然這些數字需要後續驗證,但至少反映出產業界對AI ASIC趨勢的信心。
主要成長動能方面,可以分為三塊:
雲端AI訓練
大模型訓練對算力需求呈指數級增長,是推動高階GPU和ASIC銷售的原動力。像OpenAI訓練GPT-4據估計用了一萬顆以上A100 GPU,如果改用ASIC可能數量更多。各超大雲公司都在建設超級電腦訓練AI模型,未來這些AI超算集群每擴建一次都是數十億美元規模的晶片採購案。2023年下半年起,微軟、谷歌等爭相擴充AI算力,甚至傳出NVIDIA H100一度缺貨。因此2024–2025年會是訓練型ASIC(如Google TPUv5/v6、AWS Trainium、Tesla Dojo等等)的大好機會。如果這些晶片性能接近H100且更具性價比,雲廠一定樂於導入。訓練市場雖然絕對數量沒那麼大(因大模型訓練集群全球就數十座),但金額驚人,且有示範效應。AI伺服器出貨增速即便趨緩,但均價和規格不斷提升,整體價值仍將高成長。
雲端AI推論
推論被稱為“AI金礦”,因為AI模型部署後要面向億萬用戶提供服務,推論計算的總量遠超訓練。ChatGPT爆紅後,產生式AI應用大量湧現,未來無論搜索、辦公、電商、影音平台都會內嵌AI助手,這意味著推論晶片需求極其旺盛。ASIC特別適合做推論加速,因為推論工作負載可以較固定地優化。例如Broadcom的ASIC在推論每瓦效能上比GPU高出50%,且成本低得多。難怪廣大雲服務業者紛紛開發Inferencing ASIC(Inferentia、TPU v6e、MTIA等等)。有投行預測2025年AI ASIC芯片出貨量約400萬片,同比增長40%。特別是一些應用為了降低延遲,會在邊緣部署推論晶片,這進一步擴大了數量需求。推論市場的特點是重視成本與能耗,這正是ASIC相較GPU的強項之一。因此未來幾年推論領域ASIC市佔可望迅速攀升。
邊緣AI與垂直場景
除了超大型數據中心,很多終端設備和行業場景也需要AI算力支持,如智慧車輛的自動駕駛晶片、智慧手機的影像AI處理器、物聯網裝置的微型NPU等。這些應用往往對功耗、成本敏感,無法使用功率幾百瓦的GPU,而需要高度客製化的ASIC或SoC解決方案。例如特斯拉為自駕研發了Dojo訓練ASIC和FSD車用晶片,蘋果在手機SoC中集成了神經網路引擎(也是ASIC的一種),這些都屬於邊緣AI ASIC的範疇。市場研究機構Yole預測,受自動駕駛、AIoT等帶動,邊緣AI晶片市場將保持高速成長。雖然單價不如資料中心晶片,但勝在體量大。2025年後,可能每年出貨數億顆具備AI加速單元的SoC(手機、車規MCU等),累積需求不容小覷。這部分台廠如聯發科也積極佈局AI功能整合。投資上可留意相關IP供應商(像提供NPU內核的ARM、Imagination等)和晶片商的機會。
綜合而言,2025–2027年的ASIC市場前景保持樂觀。麥格理2025年6月報告也強調,AI浪潮將扭轉半導體景氣循環,帶動台灣廠商營收向上。報告中預期台積電2025年營收成長超過20%、2026年持續雙位數增長;聯發科因切入ASIC領域,2027年相關營收可達60億美元,占總營收約20%;其他如廣達、緯穎等ODM廠2024–2025年營收也有望創新高。當然,預測也伴隨不確定性與風險:例如全球經濟景氣、企業AI預算可能影響擴張速度;地緣政治因素(中美技術管制)可能衝擊供應鏈;競爭格局變化(如果GPU價格大降或新技術出現)也會改變ASIC滲透率。但就目前資訊看,AI ASIC成長的趨勢相當明確,甚至可說是未來半導體十年的核心成長主題之一。在投資評估時將其視為長線機會,並密切追蹤年度市場數據與公司業績來驗證上述預期。
四、ASIC與GPU/NPU/通用處理器的定位比較
ASIC晶片崛起,難免要和現有的GPU、CPU等解決方案一較高下。「ASIC會不會取代GPU?和傳統處理器比有何優劣?」這裡結合技術和產業實況,談談ASIC相對於GPU、NPU(神經網路處理器)以及一般CPU的定位差異和競合關係。
計算效能與效率
ASIC的設計初衷就是針對特定應用優化電路,因此在目標任務上通常能提供卓越的性能/功耗比。例如針對深度學習推論,ASIC可以實現高並行度的乘加單元陣列,加上定制的資料路徑,效率遠超通用架構。Broadcom宣稱其AI ASIC在執行大型語言模型推論時,每瓦性能比NVIDIA GPU高出約50%。此外,ASIC省去不必要的通用性電路,因此每單位晶片面積的算力更高,製造成本相對降低。據AInvest分析,Broadcom的ASIC方案相比NVIDIA GPU可有高達75%的每算力成本優勢。這也是Hyperscaler願意投入ASIC研發的經濟動機。
當然,GPU之所以流行,是因為其架構(尤其是NVIDIA的CUDA生態)在矩陣運算上已相當強大且軟體支援完善。但一旦ASIC針對某類模型優化到位,理論上性能和效率都能超過GPU。尤其在推論階段,模型定型後,ASIC可以去除訓練相關的冗餘電路,只保留推論需要的部分,做到極致精簡。因此我們看到各大雲廠的推論晶片(Inferentia、TPU Edge等)能用更低功耗處理海量請求,這對長期運營成本非常關鍵。
靈活性與通用性
ASIC為性能犧牲的正是彈性。GPU和CPU屬於通用處理器,能透過軟體執行各種不同算法。一款GPU加速卡可以訓練各種神經網路、做科學計算、渲染圖形等等。但ASIC通常只能高效處理其設計目標的任務。例如Google TPU擅長矩陣乘法和卷積運算,但不適合執行需要複雜分支邏輯的程序。若演算法更新迭代,GPU/CPU可以透過軟體適配,ASIC則可能需要新矽片。這也是為什麼在AI研發早期,大家都用GPU——因為模型架構每天在變,用ASIC就沒彈性了。因此,GPU仍是AI探索階段的利器,而ASIC適合在模型成熟、工作負載明確之後,用於規模化部署來降低成本。所以兩者其實是互補關係:研發用GPU,部署跑量用ASIC。未來也許NVIDIA自己都會推出專用推論ASIC來滿足客戶需求。
開發生態與軟體支援
NVIDIA GPU多年耕耘,建立起CUDA軟體生態和豐富的AI開發工具,這是ASIC短期內難以匹敵的軟實力。使用GPU時,AI工程師可以直接利用TensorFlow、PyTorch等框架自動加速,而ASIC往往需要額外的軟體優化、編譯器支援,有時甚至要修改模型才能跑在ASIC上。如果軟體跟不上硬體性能,ASIC的優勢也難發揮。雲服務商為了用好自研ASIC,不惜投入大量人力編寫軟體堆疊。例如Google為TPU開發了XLA編譯器,Amazon為Inferentia設計了Neuron SDK來對接PyTorch等。這些工作量和技術門檻都很高。所以,設計一顆ASIC容易(相對),打造完整生態難。
反觀GPU陣營,NVIDIA提供從驅動、庫函式到應用框架的一條龍支持,開發者幾乎零門檻。這就是ASIC目前還無法全面替代GPU的原因之一——軟體相容性與便利性仍偏低。不過,情況在改善,例如許多ASIC開始支援主流AI框架的ONNX模型格式,用戶無需了解底層硬件即可部署模型。長期看,一旦大型雲公司自己就是用戶,他們可以強推內部開發者遷移到ASIC平臺,軟體也就跟著成熟了。
成本與規模經濟
ASIC開發初期投入巨大(動輒幾千萬美元起跳),但批量生產後單位成本低;GPU則是不用研發費、直接買現貨,但單價高(H100一張卡報價數萬美元)。這呈現一個規模經濟悖論:只有像Google這樣一年需要上萬顆加速卡的玩家,自研ASIC攤薄成本才划算。因此ASIC模式比較適用超大規模場景,而一般企業或小型實驗室仍傾向買GPU用。我認為在雲服務模式下,這個矛盾有所緩解——中小企業其實可以租用雲端的ASIC加速算力(例如Google Cloud已提供TPU雲服務)。
雲廠商自己負擔開發成本,再通過雲服務把算力賣給眾多客戶,實現規模經濟。所以未來ASIC的普及,可能更多透過雲端來完成,而不是像CPU/GPU那樣直接銷售硬件給終端客戶。對NVIDIA而言,這其實更具威脅:因為以前小公司還是買你的GPU卡,現在他們可能改用雲端TPU,就跟NVIDIA無緣了。因此我們看到NVIDIA近年積極耕耘雲服務商關係,也在軟體上提供一些雲原生解決方案,目的就是要維繫住廣泛用戶群。
與CPU、NPU的關係
CPU屬於完全通用的處理器,在AI大潮下顯得笨重且效率低,但CPU不會被完全取代——它仍負責協調系統、處理非向量化任務。所以實際運作中,CPU+GPU或CPU+ASIC協同是標配。Arm架構CPU由於能耗比高,在雲端也越來越受青睞(如前述Graviton、Alibaba平頭哥玄鐵CPU等),這其實不是用來跑AI主要計算,而是作為高效的控制與輔助處理。NPU這個詞涵蓋範圍較廣,一般指神經網路處理器,可以是手機SoC內建的小型AI加速單元,也可以是邊緣設備的獨立晶片。某種程度上,NPU也是ASIC的一種,只不過是面向終端設備的AI ASIC。
我個人傾向於將定義限定如下:GPU=通用高並行加速器,ASIC/NPU=專用加速器(前者偏雲端,後者多指終端)。兩者其實理念相通,只是應用場景規模不同。譬如蘋果的神經網路引擎(ANE)和Tesla FSD晶片,都可以算是NPU/ASIC的成功案例。在低功耗受限環境(手機、車載)中,GPU往往無用武之地,NPU/ASIC就是唯一選擇。所以我預期未來雲端由ASIC逐步分擔GPU工作,邊緣設備則幾乎全面採用專用AI加速IP。NVIDIA也早已佈局終端(Jetson平台、收購ARM希望將AI融入CPU等),但在手機、IoT領域NPU格局已定(Arm、高通、蘋果各有方案)。
競爭與共生
總的來說,ASIC和GPU在可見的將來會是共同存在而非你死我活。一方面,目前最前沿的大模型訓練仍離不開NVIDIA的軟硬體生態;另一方面,各家ASIC也在跑步前進,搶佔特定應用高地。我預計混合架構將成為常態:例如一套AI系統,前端資料預處理由CPU完成,深度模型推論主體在ASIC上跑,而某些特殊模型或小批量任務仍交給GPU執行。甚至同一家公司內,不同部門可能選不同方案——有的用公有雲GPU服務,有的調度自家ASIC機群。
對最終用戶而言,他們其實不關心底層是ASIC還是GPU,只在乎服務品質和成本。所以從商業上看,GPU廠商和ASIC陣營都會努力提供完整的解決方案:NVIDIA開始提供cuASIC開發工具、與更多客戶聯合開發客製晶片;ASIC供應商則透過軟體堆疊提升易用性,甚至仿真GPU的開發環境。
我認為未來幾年值得觀察的有:NVIDIA的對策(是否開放NVLink、生態授權給ASIC夥伴,以免客戶出走);ASIC陣營的聯盟(例如Google是否對外授權TPU技術,或各雲廠聯合制定AI晶片互通標準)。而不管格局如何演變,台積電等代工廠的地位最為穩固:無論NVIDIA GPU稱霸還是ASIC聯盟崛起,絕大部分晶片都在台積電生產,因此台積電都將持續受惠。從投資角度,這算是提供了一定程度的對沖保護——押注台積電等上游龍頭,比直接二選一壓GPU或ASIC贏家來得更穩健。
五、台灣供應鏈廠商的商機與風險
臺灣在全球半導體與電子代工產業居於核心地位,前面提到的ASIC浪潮中,台廠無論在晶圓製造、IC設計服務、先進封裝,還是伺服器組裝、網通設備等各環節都扮演重要角色。身處台灣市場,關注相關廠商的受益程度與投資價值。以下挑選幾家關鍵公司,分析其機會與潛在風險:
世芯-KY (3661):AI ASIC設計服務的隱形冠軍
世芯-KY是台灣少數專注高階ASIC設計服務的公司。它替客戶進行晶片的後端設計(佈局繞線、時序優化等),協助客戶將IC規格實現為可製造的版圖。在AI浪潮下,世芯脫穎而出,成功拿下多項國際大廠的ASIC訂單。前文提及,AWS的Inferentia 2和Trainium 3都由世芯協助設計;Intel Habana的Gaudi 2/3訓練晶片後端設計同樣出自世芯之手。據麥格理報告統計,AWS單一客戶就貢獻了世芯2024年營收的一半以上。另外,中國的一些AI晶片新創(如之前的比特大陸AI晶片)也曾是世芯客戶。由於在7nm/5nm甚至3nm都有成功量產經驗,世芯聲譽大振,其股價在2020–2021年翻了數倍。目前世芯在手訂單飽滿,營收和獲利呈高速增長態勢。
機會:世芯作為獨立第三方ASIC設計公司,市場定位獨特(競爭者寥寥無幾,另一家可比的是台積電子公司創意電子GUC)。隨著更多雲服務商投入自研晶片但缺乏足夠IC設計人力,他們勢必尋求世芯這樣的專業夥伴。世芯已建立良好信譽,未來有機會拓展新客戶(例如其他美系大廠或車用AI晶片等)。加上台積電先進製程釋出更多產能,世芯有望乘勢壯大。
風險:Alchip高度依賴幾家大客戶,客戶集中度風險明顯。若主要客戶的專案延期甚至流產,Alchip業績將受衝擊。另外,創意電子(GUC)在台積電扶持下實力不俗,已爭取到微軟、Google部分訂單。世芯需要持續投入研發留住技術人才,以維持領先。同時地緣政治也是變數——過去世芯也曾服務中國高階晶片,由於美國出口管制而受影響,所幸其現今主要客戶為美系公司,風險降低。總體而言,我認為世芯是台灣分享AI ASIC盛宴的純度最高的標的之一,高成長高波動並存。財務預測方面,市場估計世芯2024–2025年營收有望倍增,長線看好其在AI晶片設計服務市場的龍頭地位。


資料來源:財報狗

資料來源:財報狗
台積電 (2330):先進製程與封裝無可撼動的龍頭
台積電(2330)作為全球晶圓代工龍頭,是AI時代當之無愧的基石企業。無論GPU還是ASIC,只要使用先進製程,幾乎繞不開台積電。前文的供應鏈解析已展現台積電在各大AI晶片中的絕對存在感。2023年NVIDIA的H100、A100產能需求大增,使台積電HPC相關營收激增;2024年起各雲端ASIC量產將進一步挹注台積電出貨。
優勢:台積電擁有業界最先進的製程節點(目前量產到3nm,2nm研發中)和完整的先進封裝產線(CoWoS、InFO、SoIC等)。麥格理估計台積電2025年HPC平台收入可望成長約24%,佔公司總營收比重超過40%。尤其是CoWoS產能,2024–2025年連續翻倍擴充,至2025年底可達每月7萬片的矽中介層封裝產能。台積電管理層在2023Q2法說也明確表示AI需求強勁,2025年相關業務將有中雙位數增長。我認為台積電在AI時代的角色不僅是晶圓代工,更是解決方案提供者:透過3DFabric先進封裝平台,直接為客戶打造異質整合的晶片,而非僅賣晶圓。這拓寬了它的服務範疇和附加價值。
風險:對台積電而言,主要風險在外部環境。首先,海外擴張導致毛利受壓:台積電在美國、日本建廠,初期成本高昂,管理層預期未來5年海外廠將使毛利率稀釋2–4個百分點。不過這是整體性影響,AI相關業務本身毛利仍優厚。其次,地緣政治的陰影——台海局勢緊張可能動搖客戶信心,但目前美國對台積電技術嚴格管制,使其先進製程很難被國外廠取代,短期內客戶無處可去。再次,短期需求波動:如果宏觀經濟不佳,雲公司可能放緩資本支出,台積電HPC訂單增長或低於預期。但從2024–2025年規劃看,各大廠仍在加碼AI投資,因此台積電這兩年業績展望相當穩健。整體而言,我視台積電為AI供應鏈中風險收益比較佳的選擇。


資料來源:財報狗

資料來源:財報狗
緯穎 (6669):AI伺服器黑馬,受惠雲端擴張
緯穎(6669)是從穩懋(Wistron)分拆出來的雲端伺服器與儲存設備ODM廠,近年在AI基礎建設熱潮中扮演愈發重要的角色。緯穎長期深耕超大規模資料中心客戶,特別是Meta(Facebook)和Microsoft。它不僅提供傳統通用伺服器,也開始組裝帶GPU/ASIC加速卡的AI伺服器。從前述供應鏈表可見,AWS的Graviton伺服器由Wiwynn與鴻海共同組裝;Microsoft的Maia、Meta的部分AI硬體也是由Wiwynn代工。緯穎具備高度客製能力,能滿足雲客戶的特殊設計與快速交付需求。
機會:AI服務需求暴增意味著資料中心升級換代提速,這對伺服器供應商是極大利多。Meta在2023年重新啟動資料中心擴建專案,Microsoft也追加伺服器採購預算。市場預估緯穎2023–2025年營收將連創新高,年複合增速或超過30%。麥格理更將緯穎選為台灣伺服器ODM首選,認為其長期受惠AI伺服器滲透率提升。相較廣達、英業達等傳統ODM巨頭,緯穎專注雲端領域,體量雖較小但成長迅猛。特別是它積極投入液冷伺服器等新技術——AI伺服器功耗高,需要液冷散熱,這塊業務將帶來額外收入。麥格理報告指出2024–2027年伺服器液冷滲透率將從1%升至22%,對供應鏈是新風口。緯穎已布局相關產品,搶占先機。
風險:緯穎的隱憂在於客戶集中和毛利率波動。目前Meta據估佔緯穎營收5成以上,若Meta削減訂單,緯穎業績將受拖累(2022年曾因Meta暫緩擴建而出現營收下滑)。未來緯穎需努力拓展客戶,例如增加AWS或Google訂單,以分散風險。毛利方面,ODM屬薄利多銷行業,緯穎毛利率約在5~6%上下。雖AI伺服器單價高,但因元件成本也高,對毛利率百分比未必有大貢獻。不過規模上升可攤薄費用,淨利仍可成長。我對緯穎的看法是:高成長伴隨中等風險,現價對應2024年本益比20倍出頭,不算便宜但反映其成長性。若AI進程符合預期,緯穎業績有驚喜空間。目前多家券商對其評價正面,麥格理給予「跑贏大盤」,並將其列為伺服器板塊首選。



資料來源:財報狗
智邦 (2345):網通設備龍頭跨足AI領域
智邦(2345)是全球知名的網路通訊設備ODM,尤其在乙太網路交換器(Switch)市場占有率居前。雲資料中心的擴張對高階網通設備需求巨大,而AI訓練集群的構建更需要高速網路來連接成千上萬個加速器。NVIDIA的GPU超算常採用InfiniBand或200/400Gb以太網交換器,這正是智邦等廠商的專長領域。智邦是唯一出現在ASIC供應鏈表中的網通廠:AWS的AI加速卡由Accton組裝,Intel Gaudi加速卡也是智邦負責。這說明智邦不僅做交換器,還切入了AI加速卡硬體代工環節,拓展了產品線。
機會:AI資料中心對網路頻寬和低延遲要求極高,許多雲端業者建置專用的AI網路(例如超級算力集群內部的網路架構)。智邦長期與國際網通品牌合作(如Arista Networks等),有能力提供定制化的高速交換器解決方案。隨著AI集群大規模部署,網路設備升級潮將帶動智邦相關出貨增加。另外智邦承攬AI加速卡組裝,也開闢了新營收來源。2023年Accton營收成長明顯,毛利率也有改善,反映高階產品比重提升。
風險:網通市場競爭激烈,思科、華為等巨頭環伺,雲端客戶也可能自研白牌交換器。智邦需持續保持技術領先與成本優勢才能穩住市佔。另外,其客戶多為美商(Arista、Juniper等),若美國對中國出口管制升級,間接可能影響智邦對部分海外市場銷售。不過當前AI需求主要在美國,這方面問題不大。市場或低估了其在AI基礎建設中的地位——沒有高速網路,就沒有大型AI集群,而智邦正是供應這些網路設備的關鍵玩家之一。若未來有更多訊號顯示智邦產品滲透AI數據中心(例如拿下更多400G/800G交換器訂單),股價或有重估空間。


資料來源:財報狗

資料來源:財報狗
其他台廠:創意電子、廣達、鴻海、材料設備廠等
除了上述公司,台灣還有不少企業在AI ASIC產業鏈中扮演重要角色。例如:
創意電子 (GUC)
台積電轉投資的ASIC設計公司。它與Alchip類似,近年承接了Google、微軟等大單,是台積電生態系布局ASIC服務的重要一環。創意電子2023年營收高速增長,但股價已反映相當預期,目前本益比也偏高。投資人需關注其新訂單進展以及與Alchip在高階客戶上的競爭態勢。
廣達、英業達、鴻海
這些傳統伺服器ODM同樣積極卡位AI商機。廣達(2382 TT)作為伺服器龍頭,客戶遍及Google、Amazon等,並與NVIDIA深度合作供應HGX超算機箱。麥格理將廣達列為伺服器板塊另一首選。英業達(2356 TT)為Microsoft代工不少伺服器,也是AI雲基礎設備供應商。鴻海(2317 TT)則跨足更多元,包括協助AWS組裝伺服器、與輝達合資推AI工業解決方案等。這幾家體量大、業務廣,相對受單一客戶興衰影響較小,但也缺乏緯穎那種純度高的成長彈性。若看好AI資料中心長期需求,廣達等仍是值得持有的標的,只是要期待較大幅度的股價表現可能需要明後年業績實際兌現。
ASIC周邊材料與設備廠
AI ASIC熱潮也帶旺了一批上游材料和設備商。例如封裝基板廠的景碩、南電、錦碩,因高階HPC晶片需要先進載板而需求殷切;散熱廠如雙紅切入AI伺服器的液冷散熱模組;電源供應器大廠如台達電為GPU/ASIC伺服器提供高效電源方案;測試介面廠京元電子協助晶圓測試這些高速晶片;以及在先進封裝設備上有佈局的翔碩、帆宣等。有些公司2023年營收就已明顯受惠(如景碩HDI載板大增),但也有一些受限於產能瓶頸(如載板缺貨導致NVIDIA延遲交付)。總體看,關鍵零組件與設備也是投資人不能忽略的一環。因篇幅所限,此處不展開討論,但建議關注那些技術門檻高、具寡佔地位的台廠。例如麥格理點名穩懋(2360 )提供AI晶片測試設備、光罩廠漢微科受惠ASIC設計流片增加等等,都值得進一步研究。
最後談談風險因子。對台廠而言,我總結有幾點需要留意:
客戶投資周期:AI資本開支有高峰低谷,2023–2024大增後,可能在2025某時趨於平穩甚至調整。如果主要客戶放慢採購,供應鏈公司營收成長或不及預期。
新技術替代:ASIC雖好,但一旦哪天出現革命性新架構(例如量子計算或光學計算等),可能使現有硬體需求格局改寫。這雖非短期可見,但科技瞬息萬變仍須保持警覺。
地緣與政策:台廠對美業務高度依賴,中美關係或美國產業政策變化(例如補貼美國本土供應鏈)可能帶來衝擊。幸而目前AI供應鏈台廠地位穩固,美國也需要台灣配合滿足產能需求。
估值偏高:不少AI概念股經過今年上漲,估值來到歷史高位,一旦有風吹草動(如財報不達預期),股價波動幅度會較劇烈。這就要求投資人要有心理準備,採取較長線的視角看待投資,不因短期震盪而失去信心。
六、領趨觀點:AI ASIC產業鏈的中長期機遇
綜合以上分析,我對AI ASIC相關產業鏈的中長期投資機會持正面樂觀態度。在實際佈局上,以下是我的幾點建議與觀察供參考:
核心受益者為首選
從產業結構看,台積電毫無疑問是AI晶片浪潮的最大受惠者之一。理由很簡單:無論ASIC還是GPU,最先進製程訂單幾乎全在台積電。此外台積電的CoWoS/SoIC封裝服務有定價權和高毛利。對長線資金而言,台積電是攻守兼備的配置。關鍵IP與設計廠商,例如前述的Broadcom和聯發科。Broadcom在ASIC市場市佔領先,又有網路產品助攻,其業務護城河深厚(不過因為Broadcom是美股且今已有漲幅,投資要留意估值)。聯發科則是台灣IC設計龍頭,公司本業手機晶片雖成長有限,但切入AI ASIC代工設計後,有機會開啟第二成長曲線。
把握設備材料機遇
俗話說「賣水人最賺錢」,AI晶片繁榮背後,相關半導體設備和材料廠也是潛在贏家。特別是先進封裝製程所需的新設備(如混合集成、測試設備)和高階耗材(如高速傳輸介質、散熱方案)。例如上文提到的穩懋(測試設備)、京元電子(測試服務)、臻鼎KY(高速PCB)等。這類公司受單一客戶波動影響較小,屬間接受惠,但若整體趨勢向上,它們能穩定擴張。投資人可關注其訂單能見度和資本支出變化來研判景氣。在半導體設備巨頭中,應用材料、ASML等也談到AI需求帶來的新訂單,但這些國際大廠盤子大,AI相關佔比有限,所以反映到股價影響不如直接供應鏈明顯。
關注財務體質與估值
今年以來AI概念股多有顯著漲幅,有些公司的股價已領先基本面成長。投資時我建議務必重視估值水位和公司財務體質。優選那些營收獲利真正開始起飛且財務穩健者。原則是,在高景氣題材中選股更要看基本面,用成長的眼光但也不能完全無視傳統評價。尋找PEG(本益成長比)合理甚至偏低的標的是較好的策略。
分批佈局,趨勢投資
AI ASIC帶來的是長期結構性趨勢,中途難免有雜訊和震盪。建議採取逢回布局、長抱的心態。可以根據市場對AI熱度的週期變化來調整節奏:定期追蹤ASIC產業的重要數據,如台積電HPC營收占比、主要ODM出貨成長率、AI晶片價格走勢等,來驗證投資邏輯。
留意競爭與合作新動向
產業競局瞬息萬變,投資也需與時俱進。未來值得關注的事件包括:NVIDIA可能推出的客製化晶片服務及第二代超級電腦建置;各家ASIC在實戰中的表現(如Google TPU是否在雲服務廣泛商用、AWS Trainium有無吸引大客戶等);不同雲端廠是否可能共享或授權ASIC技術(例如Google是否外販TPU、Microsoft和Meta是否合作開發標準);以及晶片軟體生態進展(例如主流AI框架對ASIC支持度提高會加速滲透)。此外,中國科技巨頭如阿里、百度近年也有自研AI晶片,但受限於美國出口管制,其進度放緩。然而若地緣局勢緩和,中國AI ASIC市場可能快速爆發,那時台灣供應鏈同樣能從中受益(因為代工主要還是仰賴台積電)。所以政治局勢也是需要密切留意的變數,它影響的不只是需求,還關係著供應鏈安全與全球產業分工的重塑。
總結而言,AI ASIC產業鏈代表了未來5-10年半導體最重要的成長曲線之一。台灣廠商具備完整而靈活的供應鏈優勢,在這波浪潮中處於相對有利的位置:AI時代的算力爭霸才剛剛開始,深耕其中的優質公司將在未來歲月裡持續創造價值。
資料來源
- Macquarie:〈ASIC demand to increase supply chain visibility〉
- Digitimes、TechInsights、EE Times 等技術媒體
- TSMC 2024/2025年法說會資料與投資人簡報
- Alchip(世芯-KY)年報與法說會資料
- Broadcom、Marvell、Google Cloud、AWS、Meta官方Blog或新聞稿整理
- 市場研究機構預測(Gartner、Allied Market Research、IC Insights)
- 彭博、富比世、半導體行業協會(SIA)與分析師評論