CUDA 轉譯門檻降低,NVIDIA 會受到影響嗎?

更新 發佈閱讀 4 分鐘

最近一連串技術新聞,在工程師社群與投資圈引發不小震盪。

AI 程式碼代理人只花 30 分鐘,就把 CUDA 後端移植到 AMD ROCm( Radeon Open Compute, 是AMD主導的open souce GPU 軟體平台)

前 AMD 架構師 Raja Koduri 所述,搭配 Claude、Codex 將 CUDA 轉到 ROCm 等並不難;既然可以完全跳過中間抽象層,為什麼不直接使用 CUDA 到 GCN .

GitHub 上也出現「Co-authored-by: Claude」的 CUDA → ROCm 完整後端;這些事件被快速濃縮成一個聳動結論:

「CUDA 護城河要守不住了,NVIDIA 要被顛覆了。」

但這個推論在過去或許成立,但現在 NVIDIA 早就建立了新的護城河。


一、Claude 拆掉的是什麼?

CUDA 作為「Nvidia 的 AI 軟體護城河」,是因為過去 CUDA → ROCm 的轉換成本高.

但現在搭配 Claude、Codex 這類 agentic coding 並沒有很難繞過去,能做到:

  • 將 CUDA 程式碼轉譯為 ROCm
  • 繞過 Hipify 這類中介工具
  • 自動理解 kernel 意圖跟處理資料佈局差異

👉 CUDA 綁 Nvidia 硬體,用 agentic coding 並不難繞過去.


二、CUDA 不是 NVIDIA 現在唯一的護城河

上面這些討論仍然停留在「單晶片、單節點」,屬於個人玩家的範疇.

但 AI 的主戰場,早已從「單晶片」轉向「系統」,也就是 rack-scale system.

對於那些「雲端服務供應商」(CSP, Cloud Service Provider)像是 AWS、Azure、Google Cloud等,這層級考慮的是:

  • KV Cache 要放在哪一層記憶體
  • 什麼時候該用 HBM、什麼時候該丟到 Flash
  • 推論時候 Prefill 與 Decode 的資源怎麼切
  • 多 session 同時在線時,誰該優先拿資源
  • 哪顆 GPU 忙、哪顆閒,能不能動態調度

👉 這些是 rack-scale 系統行為層級。

NVIDIA 現在就是專注於把整個機架(Rack)當成一台超級電腦來設計

在 Rack-scale system 裡:

  • GPU、記憶體、Flash、NIC、DPU 都是共享資源
  • 記憶體跟儲存不再「屬於某顆 GPU」
  • 效能來自於「整體資源利用率」,而非單點極致

這些正是 NVIDIA 持續投入的技術方向:

  • Memory pooling
  • ICMSP / CXL / HBF
  • NVLink / NVSwitch
  • DPU 協調整個機架的資料流

這些 Rack-scale system 的技術門檻,跟 CUDA → ROCm 這種單機單晶片的層級不同。


三、所以這些新聞該怎麼解讀?

從單機玩家的角度來看,Claude、Codex 這類 agentic coding 確實讓更多人能翻過 CUDA 這道高牆。

但是從 Nvidia 的角度來看:

  • CUDA 是過去 Nvidia 的護城河.
  • NVIDIA 現在是往 Rack-scale system 方向去建立技術門檻.

小結:

真正值得問的是什麼?

不是「CUDA 會不會被終結?」,而是:

1️⃣ 當單機世界的CUDA轉換成本夠低時,這會不會反過來影響未來系統標準?

2️⃣ NVIDIA 把精力都集中在 Rack-scale system 時候,那個人玩家的單機這塊...

3️⃣ 有沒有可能 AI aegent 學會「整個 Rack 的 TCO 最佳化」?

但到目前為止,這三件事都還沒發生。



留言
avatar-img
《無時效備份沙龍》
5會員
105內容數
混合工程術語與都市情感,有種「我知道這些也許沒用,但還是想保存下來」的情緒。
2026/01/23
面對 CSP 自研 ASIC 趨勢,NVIDIA 試圖將競爭升維至系統層級。藉由 CXL /ICMSP 與 HBF 解決 KV Cache 成本,結合 NVLink Fusion 鎖定機架拓樸,NVIDIA 建構「半開放、全綁定」的生態高牆,讓自研晶片的經濟誘因在系統級 TCO 面前失去優勢。
Thumbnail
2026/01/23
面對 CSP 自研 ASIC 趨勢,NVIDIA 試圖將競爭升維至系統層級。藉由 CXL /ICMSP 與 HBF 解決 KV Cache 成本,結合 NVLink Fusion 鎖定機架拓樸,NVIDIA 建構「半開放、全綁定」的生態高牆,讓自研晶片的經濟誘因在系統級 TCO 面前失去優勢。
Thumbnail
2025/11/12
本文探討老馬在推文提到的 E2E 的挑戰-「監督赤字」問題,並解釋 VLM(視覺語言模型)、VLA(視覺語言行動模型)及世界模型(World Model)如何逐步演進以解決此挑戰,以及自駕車算力需求不斷攀升的「算力深淵」。
Thumbnail
2025/11/12
本文探討老馬在推文提到的 E2E 的挑戰-「監督赤字」問題,並解釋 VLM(視覺語言模型)、VLA(視覺語言行動模型)及世界模型(World Model)如何逐步演進以解決此挑戰,以及自駕車算力需求不斷攀升的「算力深淵」。
Thumbnail
2025/10/08
臺灣ODM/OEM代工廠如何透過「資本效率哲學」,在毛利率不高的情況下,實現超過25%的驚人ROE。從三個層次:財務邏輯、策略邏輯及供應鏈優勢,層層解構其經營模式,包含高資產週轉率、精準現金流管理、高產能利用率、客戶信任、供應鏈整合力及嚴格的現金流紀律,最終達成高ROE的成就。
2025/10/08
臺灣ODM/OEM代工廠如何透過「資本效率哲學」,在毛利率不高的情況下,實現超過25%的驚人ROE。從三個層次:財務邏輯、策略邏輯及供應鏈優勢,層層解構其經營模式,包含高資產週轉率、精準現金流管理、高產能利用率、客戶信任、供應鏈整合力及嚴格的現金流紀律,最終達成高ROE的成就。
看更多
你可能也想看
Thumbnail
本文深度解析賽勒布倫尼科夫的舞臺作品《傳奇:帕拉贊諾夫的十段殘篇》,如何以十段殘篇,結合帕拉贊諾夫的電影美學、象徵意象與當代政治流亡抗爭,探討藝術在儀式消失的現代社會如何承接意義,並展現不羈的自由靈魂。
Thumbnail
本文深度解析賽勒布倫尼科夫的舞臺作品《傳奇:帕拉贊諾夫的十段殘篇》,如何以十段殘篇,結合帕拉贊諾夫的電影美學、象徵意象與當代政治流亡抗爭,探討藝術在儀式消失的現代社會如何承接意義,並展現不羈的自由靈魂。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
5 月將於臺北表演藝術中心映演的「2026 北藝嚴選」《海妲・蓋柏樂》,由臺灣劇團「晃晃跨幅町」製作,本文將以從舞台符號、聲音與表演調度切入,討論海妲・蓋柏樂在父權社會結構下的困境,並結合榮格心理學與馮.法蘭茲對「阿尼姆斯」與「永恆少年」原型的分析,理解女人何以走向精神性的操控、毀滅與死亡。
Thumbnail
《轉轉生》(Re:INCARNATION)為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,結合拉各斯街頭節奏、Afrobeat/Afrobeats、以及約魯巴宇宙觀的非線性時間,建構出關於輪迴的「誕生—死亡—重生」儀式結構。本文將從約魯巴哲學概念出發,解析其去殖民的身體政治。
Thumbnail
《轉轉生》(Re:INCARNATION)為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,結合拉各斯街頭節奏、Afrobeat/Afrobeats、以及約魯巴宇宙觀的非線性時間,建構出關於輪迴的「誕生—死亡—重生」儀式結構。本文將從約魯巴哲學概念出發,解析其去殖民的身體政治。
Thumbnail
本文分析 NVIDIA GPU 與 Google TPU 在 2025 年 AI 算力競賽中的不同技術路徑、核心定位、硬體架構、軟體生態,以及關於投資 NVIDIA 與 Google 的觀點。
Thumbnail
本文分析 NVIDIA GPU 與 Google TPU 在 2025 年 AI 算力競賽中的不同技術路徑、核心定位、硬體架構、軟體生態,以及關於投資 NVIDIA 與 Google 的觀點。
Thumbnail
📋 摘要 (Executive Summary) 人工智慧(AI)的飛速發展,特別是深度學習(Deep Learning)和大型語言模型(LLM)的興起,將硬體加速器推向了計算領域的核心。在這場革命中,NVIDIA 的圖形處理器(GPU)憑藉其通用性、高可程式化和廣泛的軟體生態佔據了主導地
Thumbnail
📋 摘要 (Executive Summary) 人工智慧(AI)的飛速發展,特別是深度學習(Deep Learning)和大型語言模型(LLM)的興起,將硬體加速器推向了計算領域的核心。在這場革命中,NVIDIA 的圖形處理器(GPU)憑藉其通用性、高可程式化和廣泛的軟體生態佔據了主導地
Thumbnail
在這篇文章裡,你會快速掌握 AMD 最新動態:📈 財報數據亮點、⚡ MI350/MI355X 與 ROCm 7 的突破、🤝 雲端合作案例(OCI、Azure)、以及未來的產業布局與挑戰。讀完後,你會更清楚 AMD 怎麼在 AI 晶片戰場上走出「大記憶體+開放軟體」的第二條路線。
Thumbnail
在這篇文章裡,你會快速掌握 AMD 最新動態:📈 財報數據亮點、⚡ MI350/MI355X 與 ROCm 7 的突破、🤝 雲端合作案例(OCI、Azure)、以及未來的產業布局與挑戰。讀完後,你會更清楚 AMD 怎麼在 AI 晶片戰場上走出「大記憶體+開放軟體」的第二條路線。
Thumbnail
HBM4 相較 HBM3 帶寬翻倍、效能提升,但成本高出六至七成。這場轉變讓 GPU 成本重心從算力移向記憶體,深刻改變 AI 經濟學。
Thumbnail
HBM4 相較 HBM3 帶寬翻倍、效能提升,但成本高出六至七成。這場轉變讓 GPU 成本重心從算力移向記憶體,深刻改變 AI 經濟學。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News