就在社群上開始熱烈地討論著如何使用ChatGPT-4o 把真人或寵物變成模擬盒玩的期間,另一波由 Midjourney 掀起,令人驚艷的圖像生成波瀾再起。
2025年4月4號,Midjourney 發佈了其最新圖像生成模型 V7 Alpha 。根據官方的宣佈,V7 與其他模型相比,最大的增強功能之一是提供了 Draft mode(暫譯:草稿模式),能讓使用者生成的成本降低一半,生成速度提昇10倍之快。
不過,目前的V7 Alpha 還不是完全體,根據Midjourney 官方表示,未來2個月內,將把角色參照與風格參考功能納入 V7 之中,將會帶來最強大的生成圖像一致性。以下是我初測 V7 Alpha Draft mode 的記錄:
要用V7 生成圖像,在官網要將設定改成V7, 並點選開啟 Draft (如果你是在 Discord 生成圖像,則要在詠唱詞加入 --draft 和 --v 7)就能用 Draft 的方式生成圖像。
初次使用 Draft Mode 會需要進行解鎖 Personalization (個人化),過程大概5分鐘左右的時間,根據你對出現約200組圖片的風格進行評價,幫助 Midjourney 推測你的風格偏好。未來在詠唱時,生成的結果會更接近你喜歡的視覺風格,如果你常使用特定語氣或主題,V7也會更自然地捕捉那種 vibe。

也可以按一下 右上方有個小閃電符號的 「Draft Mode」來開啟語音操作流程。
解鎖完個人化後,再按一次「Draft Mode 按鈕」,網站介面會出現一個小小的麥克風,是首次 Midjourney 開放使用者用「聊天」的方式生成圖像。

生成圖像速度超級快,還可以多次更改
V7 的 Draft Mode 提供了超有感的快速生成,大約30秒內就能生成4張草稿,生成草稿後,如果不滿意,可以點選「Rerun」(再次生成)即可重新用相同的詠唱詞生成另一組圖片;或是可以直接點選其中一張,再點選「Editor」進行變化和調整來修改成你需要的方向。

草稿的畫質較低,也會忽略許多細節,等到你生成出滿意的草稿,可以點選草稿,再點選「Upscale」(放大)才能生成高解析的版本。

用說的就能生成,而且是用你自己的語言
一直以來 Midjourney 都只能用英文來生成圖像,這對其他母語的使用者來說,有時還是會有無法精準說明的情況。儘管有以圖生圖功能,添加詠唱詞對於精確的生成來說還是很重要的。 V7 的 Draft Mode 首次開啟了可以用說的方式生成圖片,而且可以使用你自己的語言,對 Midjourney 使用者來說是很重大的里程碑。
按下「Draft Mode」後,畫面右上方出現麥克風按鈕,直接點選按鈕就可以用中文說明你想要生成的圖。 Midjourney 並不是直接翻譯你說的話,而是用它理解的方式為你發展英文詠唱詞。
你可以在詠唱詞欄位先說一些大方向的想法、不一定完美的詠唱詞,並在生成草稿之後再進行多次的調整。
例如,一開始我想像有一群小人在巨大的蛋糕上工作。於是我粗略地對 Midjourney 說,「一群迷你的小人在巨大的蛋糕上工作。」
Nah...看起來有點普通,蛋糕看起來也不太美味!

於是我對它說:「小人們都穿著廚師的衣服。蛋糕是草莓蛋糕。」
現在看起來有這麼一回事了,迷你廚師們在草莓蛋糕上工作,好像很合理,不過這個比例還是很奇怪,蛋糕還是很不好吃的模樣。

接下來我又對它說:「蛋糕放在正中間,而且要完全看得見整個蛋糕。」
現在這個圖像的配比好像比較正確了,但我還是不太滿意蛋糕的外觀設計。

於是我又對它說:「蛋糕是日系精緻的蛋糕,白色的奶油。小廚師的尺寸要更小一點。」
現在蛋糕看起來完全是我喜歡的模樣了,不過最後我還是希望小廚師們的尺寸都能相同。

最後,我終於讓 Midjourney 完成了迷你小廚師們在草莓蛋糕上工作著的畫面。以下是最終由 Midjourney 為我發展的詠唱詞:
exquisite Japanese strawberry cake, white whipped cream, centered in the middle of the picture, wide shot, visible strawberries, tiny chefs in uniforms working on it, same size, cake larger and more prominent, intricate details, delicate design, whimsical and charming, surreal proportions, focus on miniature scale, playful atmosphere --ar 16:9 --v 7 --stylize 150

接下來只要反覆用同樣的方式,用說的就能讓Midjourney 調整、改變內容。過程真的很好玩,真的就像是巫師在詠唱符咒的過程。(也很像甲方客戶在逼乙方設計師東改一筆西改一筆的畫面😂),很推薦大家務必嘗試看看。
結論
Midjourney 一代代的模型更新,始終在畫質與細節上不斷推進,而這次釋出的 V7 Alpha 自然也不例外。尤其在肌膚、髮絲等材質表現上更加細膩,對於需要生成真實感圖像的使用者而言,是一次極具價值的升級。我們也會在未來的《AI 詠唱養成術》中進一步測試並分享更多成果。

這次更新中最令人驚艷的,非 Draft Mode(草稿模式) 莫屬。它真實地反映了設計者在創作過程中反覆擬稿、修正的需求,讓圖像生成不再是無法預期的隨機事件,而是可以循序漸進、逐步逼近理想的動態創作流程。
草稿模式最適合應用在「Iterate(反覆迭代)」的設計階段:你不需要擔心詠唱詞是否完美準確,只要大致說出構想,AI 就能快速產出草圖供你挑選,再進一步調整並強化細節,最終得到真正貼近需求的成果。讓 AI 從工具,進化為更貼近創作者的協作夥伴。
在語言支援上的強化,也是一大亮點,可說是能與 ChatGPT-4o 的優勢推齊,仍保有其細緻的生成藝術風格強項。就目前來說,ChatGPT 在操作介面與使用門檻上仍然較 Midjourney 更為友善,而 Midjourney 則是在快速生成與細節調整上更為出色。兩者顯然在不同使用需求情境上,有著各自擅長的部份。
根據 Midjourney 團隊的規劃,在未來兩個月內,每1-2週會在V7 模型中持續新增更多功能,其中最令我期待的應該就是角色與風格的一致性,這將大幅提升圖像的實用性,降低後製調整的時間與精力,真正讓 Midjourney 成為創作工作流中不可或缺的一環。