最詳細的 Stable diffusion WebUI 操作教學 – txt2img

2023/06/07閱讀時間約 5 分鐘
本文帶領大家學習如何調整 Stable Diffusion WebUI 上各種參數。我們以 txt2img 為例,帶大家認識基本設定、Sampling method 或 CFG scale 等各種參數調教,以及參數間彼此的影響,讓大家能夠初步上手,熟悉 AI 算圖!
尚未安裝 Stable Diffusion WebUI 的夥伴可以參考上一篇 如何在 M1 Macbook 上跑 Stable Diffusion?,本篇直接進入主題,說明並討論 WebUI 各項參數。

目錄

Stable Diffusion Checkpoint

下拉選單選擇基本算圖模型。當新增 model 時可點按旁邊的 refresh 按紐,讓選單新增選項。
如何下載以及安裝、模型推薦請參考上一篇 如何在 M1 Macbook 上跑 Stable Diffusion? 文末。

Prompt

輸入關鍵字區域,讓 Stable Diffusion 算出你想像中的畫面。
關鍵字下法與模型訓練時使用的關鍵字有關,不同模型所用的 prompt 可能大不相同。有些關鍵字可能模型並不認得,導致結果不如預期。建議可以多多參考 Civitai 各種模型的專頁,從上面擷取範例來使用並作變化。
除了直接下關鍵字,也能使用特殊符號,如小括號 () 來對該關鍵字調整權重,或者中括號 [] 在過程中變換權重。詳細玩法可參考這篇文章的教學。
這邊簡單提示關鍵字方向:
  • 物:畫面中想要呈現的東西,如人物、動物、物品等等。除了告訴 Stable Diffusion 有哪些物品,亦可多加該物的形容詞,如人的穿著、動作、年齡等等描述
  • 地:物體所在地,亦可想像成畫面的背景,讓 Stable Diffusion 知道背景要畫什麼(不然他會自由發揮)
  • 風格:告訴 Stable Diffusion 要以什麼風格呈現圖片,某個畫家?或是照片?需注意的是 不一定 每個模型都有對應風格關鍵詞,有時候直接更換 model 或 LoRA 可能會比較快達成目的
  • 角度:想要「鏡頭」從哪裡拍攝?或是人物視線方向
一開始算出來的圖或許不盡人意,但透過這些原則方向下去組合 Prompt,逐漸迭代出想像中的畫面,也算是一種創作過程 XD。
需注意的是,prompt 會受到資料偏差影響。如 這篇文 中提到,給定藍眼睛和棕色眼睛關鍵詞,畫出來的女性人種也會不同。這是因為資料來源中,藍眼睛大多是歐洲人,棕色眼睛通常是亞洲人導致,因此算圖結果被連帶影響。

Negative Prompt

輸入的字會讓 Stable Diffusion 算圖時, 避免 產生該關鍵字的影像或結果。
通常大家會下 worst quality 、 grayscale 、 low quality 等等關鍵字,增加算出來的圖像品質。或是一些不想出現的元素,如 fused fingers 、 bad anatomy 、 missing fingers 等等。
Civitai 各模型專頁也有列出 negative prompt,仔細看大部分就是那幾個在換,可以參考貼上。

Sampling method

此參數牽涉到模型設計的數學原理,對使用者來說只要大致了解即可。可以簡單想像他是模型計算中,用不同的方法去逼近答案,因此會影響算出的結果和品質。
甚至不同 Sampling method 所需的算圖時間也不一樣。
一般我常用的是 DPM++ 2M Karras、DPM++ SDE Karras 和 Euler。主要是這幾組算法算出來的圖品質比較好,以及大部分模型 demo 圖也是用這幾組參數。大家可以自己多加探索各種選項。

Sampling steps

Stable Diffusion 的原理,可以想成 AI 將一張充滿雜訊的圖(想像古早類比電視沒有訊號的畫面),慢慢 每步 去掉部分雜訊來 畫圖 .....

延伸閱讀

為什麼會看到廣告
KodingWork
KodingWork
大學唸的是生物,但持著興趣與熱情自學,畢業後轉戰硬體工程師,過著沒日沒夜的生活。之後憑一股傻勁創業,再度轉戰軟體工程師,一手扛起前後端、app開發,過程中雖跌跌撞撞,卻也累計不少經驗。 可惜不是那 1% 的成功人士,於是加入其他新創公司開發後端。沒想到卻在採坑的過程中拓寬了眼界,得到了深層的領悟。
留言0
查看全部
發表第一個留言支持創作者!