Google Pathways 架構擴展數十萬晶片,AI 雲端競爭進入新局
撰文/科技產業評論組AI 運算焦點轉向推論,Ironwood搶占制高點
自2018年推出第一代 Cloud TPU 以來,Google 致力於優化大模型(LLM)的訓練能力。但隨著生成式AI滲透各行各業,推論(Inference),即讓模型在實際應用中快速、精準地作出回應,成為新一波競爭焦點。
Ironwood正是為此時代轉變而生。單顆晶片提供高達4,614 TFLOPS的浮點運算能力,支援日益複雜的推理任務,例如邏輯分析、數學解題,甚至初具「思考能力」的推理模型。Google副總裁 Amin Vahdat明言:「如今AI推論的重要性,已經超越訓練。」
效能、節能雙突破,為雲端大規模部署而生
除了純效能,Ironwood最令人矚目的,是其能效比與可擴展性。相較前一代Trillium,Ironwood 每瓦運算效能提升兩倍,並採用先進液冷技術,有效控制熱能,維持高效輸出。對日益面臨能源壓力的資料中心來說,這項升級無異於雪中送炭。
記憶體也大幅進化。192GB的高頻寬記憶體(HBM),搭配7.2Tbps的資料傳輸速度,幾乎為前代的6倍與4.5倍,讓模型運行更流暢,減少資料瓶頸。而晶片間的雙向傳輸頻寬也提升至 1.2Tbps,支撐起大規模分散式訓練與推論所需的即時協作。
支援超大規模模型,打造雲端推論「超級引擎」
Ironwood提供256顆與9,216顆兩種規模配置。當擴展至最大規模,每個Pod可達42.5 exaFLOPS,不僅超越所有現有超級電腦,也使 Google Cloud成為能支撐下一代LLM、混和專家模型(MoE)與推理模型的理想平台。
更重要的是,Google DeepMind開發的 Pathways架構,讓多個Ironwood Pod串聯運作,可擴充至數十萬顆TPU組合運作,突破單一晶片組限制,為企業與研究機構開啟規模化AI應用的大門。
競爭態勢升溫,雲端巨頭各擁武器
Ironwood橫空出世之際,AI晶片市場早已群雄逐鹿。NVIDIA憑藉 H100/H200 系列持續主導市場,AWS有自研Trainium / Inferentia晶片,Microsoft則投入Azure Maia / Cobalt晶片開發。Ironwood的推出,不僅是技術升級,更是 Google Cloud在雲端AI基礎建設戰場的再一次布局。
在DeepSeek等推理型AI模型快速崛起之後,AI 生態系正快速由「生成」走向「理解」與「推理」。Ironwood 不只是新一代晶片,更是 Google 對 AI 演進方向的回應與押注。