本文帶領大家學習如何調整 Stable Diffusion WebUI 上各種參數。我們以 txt2img 為例,帶大家認識基本設定、Sampling method 或 CFG scale 等各種參數調教,以及參數間彼此的影響,讓大家能夠初步上手,熟悉 AI 算圖!
目錄
Stable Diffusion Checkpoint
下拉選單選擇基本算圖模型。當新增 model 時可點按旁邊的 refresh 按紐,讓選單新增選項。
Prompt
輸入關鍵字區域,讓 Stable Diffusion 算出你想像中的畫面。
關鍵字下法與模型訓練時使用的關鍵字有關,不同模型所用的 prompt 可能大不相同。有些關鍵字可能模型並不認得,導致結果不如預期。建議可以多多參考
Civitai 各種模型的專頁,從上面擷取範例來使用並作變化。
除了直接下關鍵字,也能使用特殊符號,如小括號 () 來對該關鍵字調整權重,或者中括號 [] 在過程中變換權重。詳細玩法可參考
這篇文章的教學。
這邊簡單提示關鍵字方向:
- 物:畫面中想要呈現的東西,如人物、動物、物品等等。除了告訴 Stable Diffusion 有哪些物品,亦可多加該物的形容詞,如人的穿著、動作、年齡等等描述
- 地:物體所在地,亦可想像成畫面的背景,讓 Stable Diffusion 知道背景要畫什麼(不然他會自由發揮)
- 風格:告訴 Stable Diffusion 要以什麼風格呈現圖片,某個畫家?或是照片?需注意的是 不一定 每個模型都有對應風格關鍵詞,有時候直接更換 model 或 LoRA 可能會比較快達成目的
- 角度:想要「鏡頭」從哪裡拍攝?或是人物視線方向
一開始算出來的圖或許不盡人意,但透過這些原則方向下去組合 Prompt,逐漸迭代出想像中的畫面,也算是一種創作過程 XD。
需注意的是,prompt 會受到資料偏差影響。如
這篇文 中提到,給定藍眼睛和棕色眼睛關鍵詞,畫出來的女性人種也會不同。這是因為資料來源中,藍眼睛大多是歐洲人,棕色眼睛通常是亞洲人導致,因此算圖結果被連帶影響。
Negative Prompt
輸入的字會讓 Stable Diffusion 算圖時, 避免 產生該關鍵字的影像或結果。
通常大家會下 worst quality 、 grayscale 、 low quality 等等關鍵字,增加算出來的圖像品質。或是一些不想出現的元素,如 fused fingers 、 bad anatomy 、 missing fingers 等等。
Civitai 各模型專頁也有列出 negative prompt,仔細看大部分就是那幾個在換,可以參考貼上。
Sampling method
此參數牽涉到模型設計的數學原理,對使用者來說只要大致了解即可。可以簡單想像他是模型計算中,用不同的方法去逼近答案,因此會影響算出的結果和品質。
甚至不同 Sampling method 所需的算圖時間也不一樣。
一般我常用的是 DPM++ 2M Karras、DPM++ SDE Karras 和 Euler。主要是這幾組算法算出來的圖品質比較好,以及大部分模型 demo 圖也是用這幾組參數。大家可以自己多加探索各種選項。
Sampling steps
Stable Diffusion 的原理,可以想成 AI 將一張充滿雜訊的圖(想像古早類比電視沒有訊號的畫面),慢慢 每步 去掉部分雜訊來 畫圖 .....
延伸閱讀