VIDU QI 模型是由清華大學和生數科技共同研發推出的最新一代高可控 AI 視頻技術,於 2025 年 3 月 29 日在中關村論壇人工智慧日正式發表,4 月將正式面向全球上線。這款模型在多主體細節精準控制、音效同步控制與畫質大幅提升等領域取得重大突破,成為業界首個真正高可控的 AI 視頻大模型。
主要特色
▸ 多主體細節精準控制 透過語義指令搭配視覺參考圖,可精確掌握場景內所有主體的位置、大小及移動軌跡,包括出場、退場、坐立姿態與行動路線等各種動作細節,完全按照你的想法精準呈現。
▸ 音效同步精準控制 影片畫面切換或場景變動時,能自動生成符合情境的音效,並精確控制每個音效的長度和出現時機,做到畫面與聲音的完美同步。
▸ 超清晰畫質體驗 顯著提升影片畫質,帶給使用者更加清晰、細緻且真實的視覺感受,呈現真正高品質的視覺效果。
應用領域
✔️ 動漫創作:精確掌控角色、物體與場景細節,快速製作高品質動畫
✔️ 廣告製作:透過高度可控的影片模型,精準呈現品牌元素與創意構想,簡化傳統複雜的製作流程
✔️ 影視製作:大幅提升影視製作的效率和質量,實現更精細、更具創意的內容創作
總結
VIDU QI 模型的問世,將徹底改變動畫、廣告及影視製作的方式,提供前所未有的細節掌控與視覺效果,為全球創作者開啟更多想像的可能性,讓每個人都能輕鬆實現腦海中的完美影像!