2026 年一開年,整個內容圈都在傳一個名字:Seedance 2.0。它被形容成「一個人就能開一間電影公司」的 AI 影片生成模型,創作者看完實測影片的第一句話往往是:「也太扯了吧!」但非常戲劇性的是,從它爆紅到被好萊塢點名「大規模侵權」、被逼關掉真人臉功能,中間只隔了短短幾天。這不是單一產品的故事,而是我們所有人面對 AI 時,遲早要上的一堂「倫理素養必修課」。
Seedance 2.0 是字節跳動推出的新一代 AI 影片生成模型,支援文字、圖片、音訊、影片多模態輸入,主打「導演級可控性」與「電影級畫面穩定度」。簡單說,以前的 AI 影片常常像抽獎:同一句 prompt 生出來每次都不太一樣;Seedance 2.0 則是讓你真的可以像導演一樣調度角色、鏡頭與場景,而不是祈禱系統心情好。
官方與實測大致整理出幾個亮點:
- 多模態輸入:同時吃文字、圖片、影片、音訊,讓你用劇本、參考影片、分鏡草圖一起控制輸出。
- 高度可控:可以做影片延伸、局部編輯、多鏡頭續接,畫面與角色的一致性遠優於上一代模型。
- 視聽品質:支援高解析、多鏡頭、內建音效與配樂,畫面物理合理、動作流暢,已足以當廣告或預告片等級的素材。
- 「一人導演」:搭配它的多模態參考,你可以拿自己拍的素材+簡單文字,就做出頗有電影感的完整段落。
對一般創作者來說,這意味著:
以前要「企劃(劇本)+拍攝(腳本)+剪接+配樂」才做得出來的影片,現在可能用一個晚上就能做出雛形版本,這對創作者來說時間的成本大大減低不少,但創作者必須思考一個問題:“大腦外包”的後遺症是什麼?
Seedance 2.0 怎麼在幾天內攻佔網路?
Seedance 2.0 正式發表後,科技媒體、創作者社群、短影音平台幾乎同時被它洗版:有科技部落客做深度測評,也有 KOL 拿它來「一鍵拍動作片」,甚至有人用它做出完整情節短片,連小白都可以絲滑操作。這些影片有幾個共同特徵:例如:運鏡像電影:推、拉、搖、移、空拍、跟拍,一次到位。之前的人物不一致及變形問題也得到解決,同一角色在不同鏡頭裡臉、服裝、風格都相當一致。 剪輯更是突破ai 現有技術,很多片段看起來就像專業剪接過,而不是零散的幾秒畫面。這讓很多創作者產生一種衝擊感:以前練了十年的功夫,AI 幾天內就完成大部分工作。
三、好萊塢為什麼跳出來說「這是大規模侵權」?
Seedance 2.0 還在熱潮巔峰時,美國電影界就正式出手了。
美國電影協會 MPA(背後就是迪士尼、Netflix、華納、派拉蒙、sony、環球這些好萊塢大片商)已經公開表態,認為 Seedance 2.0 很可能在沒有取得授權的情況下,大量使用受版權保護的作品。演員工會 SAG-AFTRA 也出來說,這類工具如果讓會員的臉孔和聲音在沒有本人同意下被拿去使用,其實就是明顯侵權,連最基本的「先問過本人」原則都沒有做到。另一方面,Human Artistry Campaign 等創作者團體則認為,這樣的做法等於對全球創作者權益發動衝擊,因此呼籲政府應該出面,用法律手段加以規範與制止,避免創作者的作品被大規模、不當地利用。他們的擔憂不是不無道理,主要是因為:技術在衝刺,規則卻還沒跟上。外界質疑模型在訓練階段可能大量使用未授權的電影、影集、角色與演員影像,等於把創作者的心血拿來「練功」,卻沒有付學費;而在生成端,使用者只要輸入指令,就能做出高度神似 Tom Cruise 或 Brad Pitt 的影片,甚至讓知名 IP 角色跑去演全新劇情,這早已超出單純同人創作的範圍。更關鍵的是,當演員的臉與聲音被模仿,卻沒有取得同意,也沒有任何補償機制時,就出現一種尷尬的狀況——「臉在上班,人卻沒領薪水」。因此,爭議的核心並不只是技術創新本身,而是創意被學習之後,權利與報酬是否也應該被一併尊重與保障。
Seedance 2.0 被迫踩煞車:暫停真人臉、強化防護
在輿論跟法律壓力雙重夾擊之下,字節跳動(ByteDance 也沒有硬撐,反而很快踩了煞車,對 Seedance 2.0 做出幾項明顯調整。首先,平台暫停了一系列跟「真人臉」與「知名 IP」有關的生成玩法,包括一般用戶不能再隨便上傳別人的照片或影片當素材,也關掉了那種「看臉就幫你合成聲音」的功能;另外,像迪士尼角色或好萊塢大片角色這類一看就知道是知名 IP 的內容,也不再開放生成。部分情境下,如果真的要做數位分身,必須經過真人認證,而且只能替「本人」生成,而不是替名人或第三人換臉。簡單說,原本那種「誰的臉都能拿來玩」的自由模式,被收回成「最多只能玩自己的臉」,從全面開放,轉向相對保守的自我使用原則。但筆者自己實測結果,似乎只要有人像的圖上傳生成影片都有問題,不知道是不是因為我是免費使用者才這樣。
從 Seedance 2.0 事件,看大眾需要的 AI 倫理素養
很多人看到這類新聞都會想:「那是工程師跟律師在吵的事,跟我有什麼關係?」其實關係超大。因為未來你每天滑到的短影音、看到的廣告、甚至新聞畫面,都可能摻了一點(或很多)AI。差別只在於——你看不看得出來。筆者在line常會收到的朋友問:你看!這是不是AI生成的影片?我都會回答:“只要不合邏輯就是AI,再來就是其他一些素養,因此會很容易辨別,但我個人對於新媒體上的影片我都會先懷疑,不會一股腦地相信”。因此,如果你自己也在用這些工具創作,那就更有戲了。每次按下「生成」之前,不妨先在心裡開個小法庭:我有沒有拿不屬於我的素材去餵AI?我是不是偷偷讓它長得很像某個明星、某個品牌、某個經典角色?如果本人看到,會不會覺得「欸這不是我嗎?怎麼在演這個?」萬一影片爆紅,我是準備上節目受訪,還是準備發道歉聲明?與其事後寫公關稿,不如一開始就訂好自己的原則——明星臉不碰、熱門IP不玩、客戶跟員工的肖像不亂用。把底線寫清楚,比靈感爆棚還重要。
那如果你只是觀眾呢?也別太天真。畫面再真,都可以留個小問號;越是「震撼全球」「史上最誇張」的影片,越值得多花10秒查一下來源。未來真正的媒體素養,可能不是會剪片,而是會懷疑。當大家都知道「這可能是AI」,反而會逼出更透明的標示制度。信任不是天生的,是大家一起維護出來的。
對企業、學校、政府來說,也不能只教大家「來,這個指令這樣下」。真正該教的是:出了事怎麼辦?有人亂用明星臉怎麼處理?品牌被假影片攻擊怎麼回應?與其等火燒到門口,不如先準備滅火器。這不是多心,是正常的風險管理。
說穿了,AI就像一台超強的影像印鈔機。你可以用它拍出以前要幾百萬預算才拍得出來的效果,導演夢瞬間成真;但如果沒有版權跟倫理的邊界,它也能在三分鐘內幫你製造一場公關危機。AI倫理其實沒有那麼高深,它只是在提醒你:在按下「生成」之前,先問一句——如果這真的影響到某個真實的人,我願不願意為它負責?當這句話開始成為習慣,我們才是真的跟得上這個時代。






















