
AI 影片生成的戰場在 2026 年進入了白熱化階段,而 Lightricks 推出的 LTX 2.3 無疑是其中的佼佼者。這款擁有 220 億(22B)參數的開源巨獸,不僅僅是畫質的提升,更是一場關於「視聽同步」的革命。
為什麼 LTX 2.3 值得創作者關注?
最核心的突破在於它是原生視聽一體化模型。過去我們生成 AI 影片後,往往需要另外找音效或配樂,但 LTX 2.3 在生成的同時,就能產出與畫面節奏、動作完美契合的音效與對白。四大有感升級,解決創作者痛點
- 銳利度驚人的 VAE 架構:開發團隊重建了變分自動編碼器,解決了早期 AI 影片常見的邊緣模糊。現在連髮絲細節與細微文字都能清晰可見。
- 更好的「腦袋」:4 倍大的文本連接器:模型對提示詞(Prompts)的理解更精確,能處理複雜的空間關係,不再輕易出現主體錯位的情況。
- 短影音友好的原生 9:16 支援:不再是暴力裁切,而是原生支援豎屏生成,這對抖音(TikTok)或 Reels 的創作者來說是極大的福音。
- 音質進化:改進了數據過濾與聲碼器,生成的對話與環境音更加純淨,減少了惱人的數位噪點。
多元的工作流,滿足專業需求
不論是文生影片、圖生影片,甚至是提供一段音訊讓模型生成匹配畫面的音生影片,LTX 2.3 都展現了極高的靈活性。此外,它支援「插值生成」與「局部修改(Retake)」,讓創作者能像導演一樣,精確控制影片的每一格。
這款模型目前已在 Hugging Face 開源,並支援 Apache 2.0 協議。對於追求隱私或想打造獨家工作流的個人工作室,這無疑是目前最強大的生產力工具之一。















