恣意發揮 vs 照本宣科:Stable Diffusion取樣方法的差異

更新 發佈閱讀 5 分鐘

  我不是程式設計師,是以藝術創作的角度撰寫心得。

先說結論:
  演算Img2Img時,Sampling methods(取樣方法)中Karras類型比較忠於原圖,非Karras類型比較放飛自我

raw-image

  原本沒有這麼強調瞳孔的雙色和頭髮的挑染,但因為使用的CyriousMix1.4演算模組(model)完全抓不到這兩部分(註*),所以刻意突顯了出來。
  *也有使用其他的演算模組嘗試,但這兩部分的實現程度也都差不多。

  以下演算成果的所有設定都相同,更動的只有Sampling method:

cyriousmix_14.safetensors
Sampling steps 30
Denoising strength 0.3
CFG Scale 12
Width 500 x Height 700
Batch count 1
Batch size 1
Seed 2910326828


+Prompts
masterpiece, best quality, 2girls, twins, blue shirt, white dress, bare shoulders, white pants, khaki pants, purple eyes, blue eyes, red hair, gold hair, multicolored eyes, multicolored hairs, red hair with gold highlights, gold hair with red highlights, purple eyes with blue tint, blue eyes with gold tint, smile


-Prompts
(painting by bad-artist-anime:0.9), (painting by bad-artist:0.9), watermark, text, error, blurry, jpeg artifacts, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, artist name, (worst quality, low quality:1.4), (bad anatomy), nsfw, (extra fingers), (bad fingers), extra sleeves, red letter, extra letters,
raw-image

  Euler和Heun的演算結果我「完全看不出」差異。LMS則是一如既往地不適合動漫風格的演算模組,抑或是需要很大量的sampling steps?

raw-image

  DPM fast大概是用來快速判斷結果的演算法。

raw-image

  撇開比較特殊的LMS和DPM fast不談,可以很明顯地看出名字中有「Karras」的取樣方法在同樣的設定下(特別是相同的Sampling steps、Denoising strength、CFG Scale、Seed),其演算結果是比較「忠於」原圖的。

  盡管如此,以下問題是所有演算法都有的:

  1. 所有取樣方法均「無法正確算出雙色瞳」的效果,儘管原圖和+prompts中都有提供。
  2. 紅髮挑金」所有的取樣方法都有算出來,然而「金髮挑紅」非Karras的取樣方法都只有鬢角變紅,而Karras系列與其說是有算出來,不如說是因為比較忠於原圖而保留下來的,但DPM2 Karras和DPM2 a Karras仍然沒有保留下來。
  3. 手指的問題很大--雖然幾乎所有的演算模組都有手指的問題,但CyriousMix是手指問題非常明顯的一種,偏偏我又很喜歡它的風格,未來可能需要靠Control Net來解決了。

  為何頭髮的顏色會影響演算的結果,個人認為是用於訓練的作品中,挑染其他顏色的紅髮比較常見,但挑染其他顏色的金髮卻很少見的緣故。

  換言之,可說是AI因為人類「偏好」而產生「歧視」的例子?

  下圖是我實際選用的版本。這個版本的+Prompts我忘了保存下來,但我記得也是換了很多次Seed才有金髮挑紅的成果出現,而且+Prompts應該有額外添加「two-tone hair」的關鍵詞。

raw-image

  我原本的生圖目的是更新線上連載小說的封面,下圖是手動調整過後的最終成果:

raw-image

  有興趣的話,歡迎前往KadoKado閱讀喔(自產自推)。


留言
avatar-img
︾黑米BR的沙龍︽
82會員
106內容數
筆者探索各種感興趣事物的紀錄。 *副帳非主流政治沙龍《黑米BR不政確》:https://vocus.cc/user/@BRriceP
2023/11/01
筆者最近開啟連載的小說《M.O.N》是以AI、仿生人、安寧療護為主軸的科幻短篇。書封,按照慣例,是自製;也按照慣例,使用了Stable Diffusion (SD)。
Thumbnail
2023/11/01
筆者最近開啟連載的小說《M.O.N》是以AI、仿生人、安寧療護為主軸的科幻短篇。書封,按照慣例,是自製;也按照慣例,使用了Stable Diffusion (SD)。
Thumbnail
2023/10/04
實際上,筆者的Stable Diffusion (Vlad)依舊有些問題,仍不曉得原因是顯卡、Win11、SSD、Vlad或其他,但會先從更新顯卡驅動和重裝Vlad開始找錯。 現況是Vlad運算了二三張圖後就會因為GPU記憶體不夠的問題開始極度緩慢,因此打擊了我創圖的意願。 另一方面,也是對創作
Thumbnail
2023/10/04
實際上,筆者的Stable Diffusion (Vlad)依舊有些問題,仍不曉得原因是顯卡、Win11、SSD、Vlad或其他,但會先從更新顯卡驅動和重裝Vlad開始找錯。 現況是Vlad運算了二三張圖後就會因為GPU記憶體不夠的問題開始極度緩慢,因此打擊了我創圖的意願。 另一方面,也是對創作
Thumbnail
2023/09/20
想著有一陣子沒碰SD,就生成了一張繪圖來致敬。
Thumbnail
2023/09/20
想著有一陣子沒碰SD,就生成了一張繪圖來致敬。
Thumbnail
看更多
你可能也想看
Thumbnail
如果你也是那種在職場上追求極致效率,對生活品質有堅持,且渴望一段成熟、穩定、不拖泥帶水關係的專業人士,那麼 Ping! 會是你目前市面上最值得嘗試的選擇。 成熟的大人,不需要在低效的社交中消磨熱情。讓 Ping!,為你的情感生活進行「降噪」,把精力和時間,留給那個真正能與你靈魂共鳴、頻率一致的人。
Thumbnail
如果你也是那種在職場上追求極致效率,對生活品質有堅持,且渴望一段成熟、穩定、不拖泥帶水關係的專業人士,那麼 Ping! 會是你目前市面上最值得嘗試的選擇。 成熟的大人,不需要在低效的社交中消磨熱情。讓 Ping!,為你的情感生活進行「降噪」,把精力和時間,留給那個真正能與你靈魂共鳴、頻率一致的人。
Thumbnail
厭倦只看外貌的交友方式嗎?Ping!主打真實、安全的深度交友體驗,透過真人驗證與多樣化的個人化問答,幫助使用者在認識彼此之前,先理解價值觀、關係期待與交友目標。即使是慢熟的 I 人,也能透過提問找到適合的人選,避免聊到一半才發現方向不同。適合想被理解、重視心理連結與安心互動的你。
Thumbnail
厭倦只看外貌的交友方式嗎?Ping!主打真實、安全的深度交友體驗,透過真人驗證與多樣化的個人化問答,幫助使用者在認識彼此之前,先理解價值觀、關係期待與交友目標。即使是慢熟的 I 人,也能透過提問找到適合的人選,避免聊到一半才發現方向不同。適合想被理解、重視心理連結與安心互動的你。
Thumbnail
Ping!主打真人驗證機制,透過AI人臉比對確保用戶真實性,讓人放心。獨特的照片主題功能、個性化標籤和趣味文字問答,讓用戶更深入展現自我,為開啟話題提供契機,甚至有機會找到擁有相似冷門興趣的同好。Ping!注重高品質的交友關係,透過共同點建立雙方的連結,為現代人提供一個舒適、真實且有意義的交友環境。
Thumbnail
Ping!主打真人驗證機制,透過AI人臉比對確保用戶真實性,讓人放心。獨特的照片主題功能、個性化標籤和趣味文字問答,讓用戶更深入展現自我,為開啟話題提供契機,甚至有機會找到擁有相似冷門興趣的同好。Ping!注重高品質的交友關係,透過共同點建立雙方的連結,為現代人提供一個舒適、真實且有意義的交友環境。
Thumbnail
也許不是我不適合交友,而是我適合的節奏,本來就比較慢。 比起快速認識很多人,我更在意人與人怎麼相遇,才不會那麼累。當對話可以慢慢發生,當我們從想法開始靠近彼此,那種剛剛好的距離,反而讓人更願意走近。
Thumbnail
也許不是我不適合交友,而是我適合的節奏,本來就比較慢。 比起快速認識很多人,我更在意人與人怎麼相遇,才不會那麼累。當對話可以慢慢發生,當我們從想法開始靠近彼此,那種剛剛好的距離,反而讓人更願意走近。
Thumbnail
  已經玩SD好一陣子的人應該已經發現,很多名字帶有「Mix」且比較有名的checkpoint模型基本上就是在互相「抄來抄去」,而且在女角方面很多只使用了極少的人物重點訓練,導致算出來的臉常常「都長一個樣」。   那麼,該怎麼辦呢?
Thumbnail
  已經玩SD好一陣子的人應該已經發現,很多名字帶有「Mix」且比較有名的checkpoint模型基本上就是在互相「抄來抄去」,而且在女角方面很多只使用了極少的人物重點訓練,導致算出來的臉常常「都長一個樣」。   那麼,該怎麼辦呢?
Thumbnail
因為最近在玩這篇ACG LoRA的寫實風運用 - Stable Diffusion 心得中的內容,所以繼約兒後也嘗試了2B的LoRA。
Thumbnail
因為最近在玩這篇ACG LoRA的寫實風運用 - Stable Diffusion 心得中的內容,所以繼約兒後也嘗試了2B的LoRA。
Thumbnail
這篇要來討論,我們是否能靠著一張圖,就能鍛鍊出LoRA。
Thumbnail
這篇要來討論,我們是否能靠著一張圖,就能鍛鍊出LoRA。
Thumbnail
這篇要來談談一個我最近常用的大量生圖方法 -- 狂野生圖法。
Thumbnail
這篇要來談談一個我最近常用的大量生圖方法 -- 狂野生圖法。
Thumbnail
我們今天這一篇文章,要分享我自己玩AI繪圖到目前為止的心得並且把影響AI繪圖品質歸類為四大要素,我將以實證並且實測的角度來驗證給各位看,到底這幾個要素會怎樣影響我們產生的AI繪圖的品質,跟我一樣好奇或者是AI的繪圖新手們應該可以從今天的文章中掌握到如何提升圖片品質的技巧。
Thumbnail
我們今天這一篇文章,要分享我自己玩AI繪圖到目前為止的心得並且把影響AI繪圖品質歸類為四大要素,我將以實證並且實測的角度來驗證給各位看,到底這幾個要素會怎樣影響我們產生的AI繪圖的品質,跟我一樣好奇或者是AI的繪圖新手們應該可以從今天的文章中掌握到如何提升圖片品質的技巧。
Thumbnail
這次來用一些好用的手法,達到在Stable Diffusion裡面畫出誇張姿勢的方法。
Thumbnail
這次來用一些好用的手法,達到在Stable Diffusion裡面畫出誇張姿勢的方法。
Thumbnail
以下測試同樣都是使用stable diffusion webui。 據我之前看過的網路文章或網路討論,大多是指繪圖步數越高則繪圖細節會越多,但其正面效益會隨著步數的持續增加而遞減。但我並沒有看到有人明確的描述細節的提昇到底是提昇在哪?效益的遞減又是怎麼遞減的?我只好自己測一次才會甘願了。
Thumbnail
以下測試同樣都是使用stable diffusion webui。 據我之前看過的網路文章或網路討論,大多是指繪圖步數越高則繪圖細節會越多,但其正面效益會隨著步數的持續增加而遞減。但我並沒有看到有人明確的描述細節的提昇到底是提昇在哪?效益的遞減又是怎麼遞減的?我只好自己測一次才會甘願了。
Thumbnail
這次的測試純粹是我個人好奇同一組繪圖prompt分別使用在真人風格與動漫風格的model下,會有什麼差別? 真人風格的model使用Basil mix,動漫風格的model使用anything-v4.5。Lora來源為C站的瑪奇瑪Lora。
Thumbnail
這次的測試純粹是我個人好奇同一組繪圖prompt分別使用在真人風格與動漫風格的model下,會有什麼差別? 真人風格的model使用Basil mix,動漫風格的model使用anything-v4.5。Lora來源為C站的瑪奇瑪Lora。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News