【AI時代才剛開始】如果「實際商用」AI生成1小時以上的高畫質影片,硬體規格將狂暴升級!

更新 發佈閱讀 9 分鐘

AI 真的能「實際商用」生成 1 小時以上的高畫質影片,整個硬體 stack 幾乎都要升級一個世代,不是只加一點 RAM 或多幾顆 GPU,而是「算力架構、記憶體、儲存、頻寬、散熱」全面往上拉。

撰文|AI伺服器研究團隊|2025年11月


一、算力需求:GPU 等級直接往「持續算一小時」的方向設計

現在的短影片生成(幾秒~1分鐘),典型是 Diffusion / Transformer 模型,每一「幀」或每一段 latent 都要做多次迭代。

10 秒影片(例如 24fps ≈ 240 frames),已經可以吃滿多顆 GPU、跑好幾十秒~幾分鐘,還要做分段生成 + 拼接。

變成 1 小時影片會怎樣?

1 小時 = 3600 秒,以 24fps 計:3600 × 24 = 86,400 frames(現在很多 model 根本不會直接做到這麼長,都用 chunk 分段處理)

要讓敘事連貫、不崩壞,模型必須:

  1. 長序列注意力(long-context attention):不是只看當下幾秒,而是「全片角色、場景、光影、故事線」要一致。這會讓運算複雜度跟序列長度一起爆炸 → 逼 GPU/ASIC 要有更高的 TFLOPS + 更好的快取/記憶體架構。
  2. 多 GPU / 多節點協同:一小時影片幾乎一定要多 GPU pipeline / tensor parallel / sequence parallel。對硬體規格的要求:更高頻寬的 GPU 間互連(NVLink、CX8/IB 之類)。node 間網路:400G → 800G,甚至 Tb/s 級 backbone 才能撐住集群算力。
未來能做 1 小時影片生成的機房,會更像「影視渲染 farm + AI 叢集」的混合體,GPU/ASIC 的設計會更重視長時間穩定滿載 + 高頻寬互連,而不是只拼單次推論 latency。

二、記憶體(HBM / DRAM):從「塞模型」變成「塞整部片的語意狀態」

現在已經看到幾個趨勢:

  • 模型本身:Foundation Model 幾十億~上百億參數(video diffusion / VLM)。
  • 上下文暫存:每一段影片 latent、中間 feature map,角色姿態、camera movement、物體軌跡等「狀態」,如果要保持 1 小時的連貫,這些 state 需要長時間存在。

硬體影響:

單卡 HBM 容量,現在 HBM3/3E 走到 96GB / 144GB 等級已經是趨勢。1 小時級影片生成如果要在「較少分段」情況下跑,很容易需要多卡 HBM 疊加上 TB 級的系統 DRAM。

系統 DRAM 容量 & 頻寬,在 host 端要存更多中間結果、索引、場景圖(scene graph)。Server DRAM:從現在 1–2TB 進階到 4TB 甚至 8TB per node 會比較合理,且要搭配更高 DDR5/DDR6 頻寬。

記憶體架構演進,CXL memory pool / disaggregated memory 會更重要,因為一部片的狀態不見得塞得進單一伺服器。對硬體規格來說:需要支援 CXL、更多 PCIe lanes、更高頻寬 IO die。


三、儲存(Storage):從幾百 GB 升級到「PB 級長影片素材庫」

影片長度提升,幾個維度會被放大:

輸入素材 / prompt 相關資源

長片通常不是「一段 prompt 到底」,會有:腳本、分鏡、參考圖、lookbook、角色資料庫。模型可能需要反覆從儲存系統拉取這些 reference。

輸出影片本身

假設 4K、60fps、壓縮後平均 20–50 Mbps:1 小時 ≈ 9–22 GB / 每部。如果生成多版本、迭代修稿,很快就是 TB 級。

中間產物(latent / feature / draft clips)

training / fine-tune / iterative generation 時,會暫存大量中間 video tensor。需要高速 SSD/PCIe Gen5/Gen6 + 可能的 以 NVMe-oF / 專用 AI storage appliances。

硬體規格面:

單機 NVMe SSD 從現在 20–40TB → 80TB / 100TB 類型越來越吃香。

機櫃層級:高密度 all-flash array,專門給 AI 視訊工作負載。

IOPS & Seq. throughput 都要拉高,避免 I/O 變成瓶頸。


四、網路頻寬:生成只是第一步,「傳輸與協同」也很吃 spec

如果是雲端 AI 影片服務,1 小時影片帶來的網路壓力有:

模型內部(GPU 間 / 節點間)

前面講過:多 GPU 協同 → 需要更高速的 Infiniband / RoCE。800G/1.6T 網卡會變成高端 AI video 叢集標配。

儲存與算力之間

Data Lake / object storage 與 compute node 間要支援高吞吐。S3-compatible + RDMA / 高速 cache node 結合。

對外輸出給用戶

如果用戶要「邊看邊生成」、「生成完馬上雲端剪輯」,後端頻寬壓力更大。CDN + edge compute + 檔案壓縮編碼 (AV1、HEVC) 都要同步升級。


五、散熱與電力:1 小時影片 = 長時間滿載的「小型 HPC 任務」

生成長影片代表GPU/ASIC 長時間滿載(不是跑幾秒就結束),加上儲存、網路、CPU 也在高負載狀態。

硬體趨勢會是:

機櫃功耗

從現行 30–50kW/rack → 80–120kW,甚至更高。傳統風冷很難撐,必須進到 液冷(cold plate / rear door / MCL / CDU)。

冷卻設計

liquid-cooled GPU、CSP 自研 high-density AI racks。高算力 video generation cluster 會直接被歸類成「需要液冷」的工作負載,不太可能只靠風冷。

電力基礎建設

長影片生成如果變成主流商業服務,資料中心的 MW 級電力需求會更難壓低。也因此會推動:更高效的 power delivery、直流供電架構、甚至再生能源 PPA。


六、專用 ASIC / 新架構的可能性

當「長影片生成」成為一個穩定的商業市場後,硬體有幾個很可能的方向:

專用 Video-Gen ASIC / NPU

針對長序列視覺 + 時間建模做特化,更大的 on-chip SRAM 作為短期記憶,更高效的 attention / Conv / MoE 單元。目標是同樣電力下,生成同長度影片的速度比 GPU 快很多。

類似遊戲引擎的「AI 視覺引擎」硬體

部分邏輯交給類似 GPU RT cores / tensor cores 的專用單元處理,結合物理引擎、骨架動畫、camera path 模組,減少模型純算力壓力。

記憶體層級更多樣

HBM + GDDR + CXL RAM + NVMe 一起構成一個「分層視覺快取系統」,像遊戲讀圖一樣,只把當下片段和關鍵暫存放在最快的 HBM,其他存放在較慢但大的層級。


七、總結硬體規格的變化方向

「從能生成幾秒廣告的 AI 算力,進化成能長時間渲染一整部電影的 AI 影視工廠。」

具體就會是這樣:

  • GPU/ASIC:更多算力、更高頻寬互連、為長序列優化的架構。
  • 記憶體:單卡 HBM 更大、系統 DRAM 拉到多 TB、CXL 記憶體池普及。
  • 儲存:高容量、高吞吐的 all-flash + AI 專用 storage。
  • 網路:800G / 1.6T 級內部網路成為標準配備。
  • 散熱 / 電力:機櫃功耗破 100kW,液冷成為 AI video cluster 的必然選項。
留言
avatar-img
Tx3 Research|掌握關鍵洞察
67會員
242內容數
Tx3是一個專注於產業財報分析、投資心法與國際趨勢解析的媒體,結合產業第一線脈動、數據驅動的思考,以及全球視野下的策略觀點。 我們不是單純報導新聞,而是以犀利的眼光挑戰框架,用簡明但深刻的語言解構複雜議題,幫助讀者掌握「看懂趨勢、預判未來、做出投資好決策」的核心能力。
2025/11/19
所有大咖 CSP 現在都已經進到「大量量產 AI 資料中心」階段,不再只是試水溫,2025–2027 是全球 AI 機房爆發期! 一、全球 AI 資料中心進度: 2025年 IEA 最新報告估計,光 AI 資料中心一年 CapEx 就逼近 5,80
Thumbnail
2025/11/19
所有大咖 CSP 現在都已經進到「大量量產 AI 資料中心」階段,不再只是試水溫,2025–2027 是全球 AI 機房爆發期! 一、全球 AI 資料中心進度: 2025年 IEA 最新報告估計,光 AI 資料中心一年 CapEx 就逼近 5,80
Thumbnail
2025/11/17
浸沒式不會取代所有散熱,但在「超高功耗 AI 機房」裡,幾乎可以確定會從實驗品 → 標配,尤其是特定機櫃/叢集。 一、為什麼浸沒式幾乎一定會變主流選項之一? AI 伺服器機櫃功耗,從以前的 20–30 kW 一路往 80–130 kW 飆,風冷和傳
2025/11/17
浸沒式不會取代所有散熱,但在「超高功耗 AI 機房」裡,幾乎可以確定會從實驗品 → 標配,尤其是特定機櫃/叢集。 一、為什麼浸沒式幾乎一定會變主流選項之一? AI 伺服器機櫃功耗,從以前的 20–30 kW 一路往 80–130 kW 飆,風冷和傳
2025/11/16
AI 伺服器前端儲存,正悄悄變成下一個高功率熱點,Gen6 SSD 控制器把「前端儲存區」也推進了高功率密度時代,不再是只有 GPU/CPU 需要液冷,SSD 托盤本身也開始出現「直接液冷版」的新需求
Thumbnail
2025/11/16
AI 伺服器前端儲存,正悄悄變成下一個高功率熱點,Gen6 SSD 控制器把「前端儲存區」也推進了高功率密度時代,不再是只有 GPU/CPU 需要液冷,SSD 托盤本身也開始出現「直接液冷版」的新需求
Thumbnail
看更多
你可能也想看
Thumbnail
鴻海憑藉其在全球AI伺服器市場超過40%的絕對領導地位,正迎來由CSP資本支出驅動的黃金成長期。本報告深度剖析,公司已成功打破市場對其低毛利的刻板印象,獲利能力迎來結構性提升。我們認為,市場仍以傳統EMS框架低估其價值,其轉型為高附加價值科技解決方案平台的潛力,提供了一個顯著的價值重估機會。
Thumbnail
鴻海憑藉其在全球AI伺服器市場超過40%的絕對領導地位,正迎來由CSP資本支出驅動的黃金成長期。本報告深度剖析,公司已成功打破市場對其低毛利的刻板印象,獲利能力迎來結構性提升。我們認為,市場仍以傳統EMS框架低估其價值,其轉型為高附加價值科技解決方案平台的潛力,提供了一個顯著的價值重估機會。
Thumbnail
《轉轉生》(Re:INCARNATION)為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,結合拉各斯街頭節奏、Afrobeat/Afrobeats、以及約魯巴宇宙觀的非線性時間,建構出關於輪迴的「誕生—死亡—重生」儀式結構。本文將從約魯巴哲學概念出發,解析其去殖民的身體政治。
Thumbnail
《轉轉生》(Re:INCARNATION)為奈及利亞編舞家庫德斯.奧尼奎庫與 Q 舞團創作的當代舞蹈作品,結合拉各斯街頭節奏、Afrobeat/Afrobeats、以及約魯巴宇宙觀的非線性時間,建構出關於輪迴的「誕生—死亡—重生」儀式結構。本文將從約魯巴哲學概念出發,解析其去殖民的身體政治。
Thumbnail
黃仁勳把「AI 工廠時代」描述為:從賣晶片走向幫客戶打造從晶片、系統到資料中心整體的生態與能力。這次與 OpenAI 的合作,旨在把大規模算力(起步 10 GW)變成可以被廣泛使用的基礎建設。 我把訪談精煉成 三大規模法則(Scale Laws):算力規模、資料/模型規模、部署/在地化規模。每一條
Thumbnail
黃仁勳把「AI 工廠時代」描述為:從賣晶片走向幫客戶打造從晶片、系統到資料中心整體的生態與能力。這次與 OpenAI 的合作,旨在把大規模算力(起步 10 GW)變成可以被廣泛使用的基礎建設。 我把訪談精煉成 三大規模法則(Scale Laws):算力規模、資料/模型規模、部署/在地化規模。每一條
Thumbnail
今天要帶大家走進鴻海最新的 AI 研發核心── 《鴻海研究院:訓練AI基礎模型,打造三大智慧平台》 --- 一、自主訓練 AI 基礎模型:FoxBrain 的誕生 今年 3 月中旬,鴻海研究院推出了自家繁體中文大型語言模型 FoxBrain,這是台灣第一個具備「邏輯推理」能力的 AI 基礎
Thumbnail
今天要帶大家走進鴻海最新的 AI 研發核心── 《鴻海研究院:訓練AI基礎模型,打造三大智慧平台》 --- 一、自主訓練 AI 基礎模型:FoxBrain 的誕生 今年 3 月中旬,鴻海研究院推出了自家繁體中文大型語言模型 FoxBrain,這是台灣第一個具備「邏輯推理」能力的 AI 基礎
Thumbnail
AI的發展速度令人驚嘆,但也開始暴露出新的隱憂。 OpenAI透過收購SAI,讓AI走入電腦的操作層面; 蘋果則以美國製AI伺服器展現製造業回流的決心; 然而,AI模型的「腦腐化」現象提醒我們—— 當AI沉迷於低品質資訊,它也可能「變笨」。 這是一個關於技術升級與智能退化的同時進行曲。
Thumbnail
AI的發展速度令人驚嘆,但也開始暴露出新的隱憂。 OpenAI透過收購SAI,讓AI走入電腦的操作層面; 蘋果則以美國製AI伺服器展現製造業回流的決心; 然而,AI模型的「腦腐化」現象提醒我們—— 當AI沉迷於低品質資訊,它也可能「變笨」。 這是一個關於技術升級與智能退化的同時進行曲。
Thumbnail
🌐 什麼是多模態軌跡預測模型? 一般的自動駕駛系統,只能「反應當下」,但未來的智慧車,需要能「預測未來」──像是前車什麼時候會轉彎、旁邊摩托車會不會切入車道、紅綠燈變化後誰先動作等等。 鴻海研究院這次推出的模型,使用了AI 深度學習與多模態感知技術,能夠: 分析車輛、行人、自行車的歷史軌跡
Thumbnail
🌐 什麼是多模態軌跡預測模型? 一般的自動駕駛系統,只能「反應當下」,但未來的智慧車,需要能「預測未來」──像是前車什麼時候會轉彎、旁邊摩托車會不會切入車道、紅綠燈變化後誰先動作等等。 鴻海研究院這次推出的模型,使用了AI 深度學習與多模態感知技術,能夠: 分析車輛、行人、自行車的歷史軌跡
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
這是一場修復文化與重建精神的儀式,觀眾不需要完全看懂《遊林驚夢:巧遇Hagay》,但你能感受心與土地團聚的渴望,也不急著在此處釐清或定義什麼,但你的在場感受,就是一條線索,關於如何找著自己的路徑、自己的聲音。
Thumbnail
這篇文章會帶你快速掌握:鴻海休士頓工廠如何率先部署 NVIDIA Isaac GR00T N 人形機器人 🚀,完整時間線、技術重點、工廠應用場景,以及台廠的機會與風險。讀完後,你能清楚理解這場「AI + 製造」的最新進展。
Thumbnail
這篇文章會帶你快速掌握:鴻海休士頓工廠如何率先部署 NVIDIA Isaac GR00T N 人形機器人 🚀,完整時間線、技術重點、工廠應用場景,以及台廠的機會與風險。讀完後,你能清楚理解這場「AI + 製造」的最新進展。
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
背景:從冷門配角到市場主線,算力與電力被重新定價   小P從2008進入股市,每一個時期的投資亮點都不同,記得2009蘋果手機剛上市,當時蘋果只要在媒體上提到哪一間供應鏈,隔天股價就有驚人的表現,當時光學鏡頭非常熱門,因為手機第一次搭上鏡頭可以拍照,也造就傳統相機廠的殞落,如今手機已經全面普及,題
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
本文分析導演巴里・柯斯基(Barrie Kosky)如何運用極簡的舞臺配置,將布萊希特(Bertolt Brecht)的「疏離效果」轉化為視覺奇觀與黑色幽默,探討《三便士歌劇》在當代劇場中的新詮釋,並藉由舞臺、燈光、服裝、音樂等多方面,分析該作如何在保留批判核心的同時,觸及觀眾的觀看位置與人性幽微。
Thumbnail
E2E自動駕駛、次世代光學AI晶片、800V直流供電及人形機器人應用。NVIDIA憑藉E2E模型、HVDC方案與機器人合作,成為AI生態基礎設施領導者;Cognifiber開發的光學AI晶片DeepLight,運算速度號稱超越NVIDIA 1000倍;人形機器人則應用於製造、零售和醫療等領域。
Thumbnail
E2E自動駕駛、次世代光學AI晶片、800V直流供電及人形機器人應用。NVIDIA憑藉E2E模型、HVDC方案與機器人合作,成為AI生態基礎設施領導者;Cognifiber開發的光學AI晶片DeepLight,運算速度號稱超越NVIDIA 1000倍;人形機器人則應用於製造、零售和醫療等領域。
Thumbnail
台灣ODM/品牌:三個月預覽:ASIC AI伺服器趨勢上升; 2025年下半年機架級模型轉換;關稅提前導致高基期。我們預覽了AI伺服器/AI PC供應鏈中10家公司未來三個月的營收, 預計這10家公司在2025年6月/7月/8月的年均增長率將達到+37%/ +27%/+18%,主要受AI伺服器需求增
Thumbnail
台灣ODM/品牌:三個月預覽:ASIC AI伺服器趨勢上升; 2025年下半年機架級模型轉換;關稅提前導致高基期。我們預覽了AI伺服器/AI PC供應鏈中10家公司未來三個月的營收, 預計這10家公司在2025年6月/7月/8月的年均增長率將達到+37%/ +27%/+18%,主要受AI伺服器需求增
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News