忠實放大、增添細節 ControlNet 1.1 - Tile Resample - Stable Diffusion

更新於 發佈於 閱讀時間約 9 分鐘

這篇心得 Automatic1111 (A1111)/ Vlad Diffusion (Vlad)介面通用。

更新/安裝

Vlad/A1111已安裝ControlNet:
Extensions > Installed > Check for updates > Apply & restart UI (建議重開程式)

新安裝:
Extensions > Available > Load from: >找到sd-webui-controlnet > Install > 等畫面變亮 > Installed > Apply & restart UI (建議重開程式)

注意!

雖然安裝會一併下載Preprocessor,但ControlNet的model通常需要自己手動下載。這次1.1更新因為舊版的model已不適用,可全部移除後前往此頁面下載:https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main

總共有14個model,要下載的是副檔名".pth"的檔案,下載後放到extensions或extensions-builtin資料夾中的"sd-webui-controlnet\models"。

".yaml"的部分應該已在該資料夾內,如果沒有才一併下載。另外,需要移除的舊版model也是在這個資料夾中。需要注意的是.pth、.yaml是兩個檔案一組的,所以請確認下載的.pth都有對應的.yaml。

這次心得使用的model是:

下載請點紅框箭頭

下載請點紅框箭頭


Tile Resample - 忠實放大、增添細節

我在放大/多道提示詞的好幫手:MultiDiffusion插件 - Stable Diffusion一文中提到,Noise Inversion可在Image2Image放大運算時相當程度保留原圖構圖。ControlNet的Tile Resample也有同樣的功能,而且更為忠實

另外,ControlNet的model可以搭配MultiDiffusion的Tiled VAE使用來減少VRAM用量,但Tiled Diffusion部分會有衝突,往往無法一起使用。

接下來就要收入場費了(並沒有)

首先用Text2Image生成基礎原圖:

512 x 784 原圖

512 x 784 原圖

model: chilloutmix
vae: blessed2.vae.pt

+
complex 3d render ultra detailed of a beautiful female android, cyborg, sitting, robotic parts, 150 mm, beautiful studio soft light, rim light, dramatic lighting, neon lights, vibrant details, luxurious cyberpunk, [<lora:JapaneseDollLikeness_v15:0.5>], lace, hyper realistic, anatomical, facial muscles, silver hair, white hair, hair floating in air, (robotic eyes), cable electric wires, microchip, elegant, cyberpunk background, dark background, beautiful background, octane render, H. R. Giger style, 8k, best quality, masterpiece, illustration, extremely delicate and beautiful, extremely detailed , (realistic, photo-realistic:1.37), masterpiece, best quality, absurdres, extremely detailed,
-
bad-hands-5, ng_deepnegative_v1_75t.pt, (low quality, worst quality:1.4), (monochrome:1.1), (greyscale), watermark, text, blurry, jpeg artifacts, cropped, normal quality, signature, username, artist name, cartoon, canvas frame, lowres, (disfigured), (bad art), (deformed), (extra limbs), (b&w), weird colors, (duplicate), (morbid), (mutilated), mutated hands, (poorly drawn hands), (poorly drawn face), (mutation), (ugly), (bad proportions), cloned face, out of frame, gross proportions, (malformed limbs), (missing arms), (missing legs), (extra arms), (extra legs), fused fingers, (long neck), lowres, (grayscale), (skin spots), acnes, skin blemishes, (age spot), (nsfw)

Sampling method: DPM++ SDE Karras
Sampling steps: 33
Width: 512
Height: 784
CFG Scale: 5
Clip Skip: 1
Seed: 2832472998

*<lora:JapaneseDollLikeness_v15:0.5> LoRA模組由此下載
*bad-hands-5 Textual Inversion由此下載
*ng_deepnegative_v1_75 Textual Inversion由此下載

接著我將上圖傳到Image2Image,使用原本的+/-Prompts和設定,只改了下圖紅框中的設定,將圖放大一倍為 1024 x 1568:

Image2Image

Image2Image

接下來的四張圖全都使用了同樣的設定,差別是:

1張無使用ControlNet, 3張使用了ControlNet的Tile Resample,但使用了三種"Down Sampling Rate"。下圖是四圖同框的比較圖:

四圖比較

四圖比較

512 x 784 原圖

512 x 784 原圖


再放一次512x784原圖方便對照。

乍看一下可能覺得差別不大,但和原圖對比過的話會發現,有使用Tile Resample的三張的臉看起來和原圖像是同一個人,沒有使用的則看起來像是不同的人,尤其「眼形」的部分特別明顯。

另外像是下巴下方黑底領口的細部紋路,也是只有使用Tile Resample的三張保留了下來另外一些護具的細部尖尖角角的輪廓,也只有Tile Resample的圖保留了下來。

並且Tile Resample保留相似度的同時仍增添了細節,例如肩膀護具的網孔紋理,在保留其特徵的前提下解析度和細節都獲得了提升

無Tile Resample,護具的網孔紋理和原圖有很多不同之處,例如原本沒有的皺褶

無Tile Resample,護具的網孔紋理和原圖有很多不同之處,例如原本沒有的皺褶

Down Sampling Rate 1 - 很忠實地保留了原圖網孔紋理

Down Sampling Rate 1 - 很忠實地保留了原圖網孔紋理

Down Sampling Rate 4.5- 忠實地保留了原圖網孔紋理,但開始有點不同,例如反光形狀

Down Sampling Rate 4.5- 忠實地保留了原圖網孔紋理,但開始有點不同,例如反光形狀

Down Sampling Rate 8 - 相較無Tile Resmaple的圖仍更忠實地保留原圖網孔紋理,但明顯增加了不同之處

Down Sampling Rate 8 - 相較無Tile Resmaple的圖仍更忠實地保留原圖網孔紋理,但明顯增加了不同之處

簡要言之,Down Sampling Rate數值越大,細節的自由度越高,原因在於Down Sampling Rate數值越大,ControlNet model運算時建立的原圖參考圖就越模糊:

運算參考圖的模糊程度差異

運算參考圖的模糊程度差異

使用時的ControlNet設定參考如下:

ControlNet tile resample 介面 - 遇到Out of memory錯誤時可勾選"Low VRAM"試試看

ControlNet tile resample 介面 - 遇到Out of memory錯誤時可勾選"Low VRAM"試試看

祝大家算圖愉快!


留言
avatar-img
留言分享你的想法!
呆碗-avatar-img
2023/05/08
谢谢您的分享。请问为何我的Preprocessor的选项里没有tile resample?只有tile Gaussian?是不是漏装了什么插件?
黑米BR-avatar-img
發文者
2023/05/09
呆碗 可能是ControlNet没有更新到最新版本
黑米BR-avatar-img
發文者
2023/07/06
賽博風 | ControlNet三合一 | Stable Diffusion提及了這篇文章,趕快過去看看吧!
黑米BR-avatar-img
發文者
2023/05/23
ACG LoRA的寫實風運用 - Stable Diffusion提及了這篇文章,趕快過去看看吧!
黑米BR-avatar-img
發文者
2023/05/15
Reference_only - 輕鬆以圖發想提及了這篇文章,趕快過去看看吧!
avatar-img
︾黑米BR的沙龍︽
82會員
105內容數
筆者探索各種感興趣事物的紀錄。 *副帳非主流政治沙龍《黑米BR不政確》:https://vocus.cc/user/@BRriceP
2023/11/01
筆者最近開啟連載的小說《M.O.N》是以AI、仿生人、安寧療護為主軸的科幻短篇。書封,按照慣例,是自製;也按照慣例,使用了Stable Diffusion (SD)。
Thumbnail
2023/11/01
筆者最近開啟連載的小說《M.O.N》是以AI、仿生人、安寧療護為主軸的科幻短篇。書封,按照慣例,是自製;也按照慣例,使用了Stable Diffusion (SD)。
Thumbnail
2023/10/04
實際上,筆者的Stable Diffusion (Vlad)依舊有些問題,仍不曉得原因是顯卡、Win11、SSD、Vlad或其他,但會先從更新顯卡驅動和重裝Vlad開始找錯。 現況是Vlad運算了二三張圖後就會因為GPU記憶體不夠的問題開始極度緩慢,因此打擊了我創圖的意願。 另一方面,也是對創作
Thumbnail
2023/10/04
實際上,筆者的Stable Diffusion (Vlad)依舊有些問題,仍不曉得原因是顯卡、Win11、SSD、Vlad或其他,但會先從更新顯卡驅動和重裝Vlad開始找錯。 現況是Vlad運算了二三張圖後就會因為GPU記憶體不夠的問題開始極度緩慢,因此打擊了我創圖的意願。 另一方面,也是對創作
Thumbnail
2023/09/20
想著有一陣子沒碰SD,就生成了一張繪圖來致敬。
Thumbnail
2023/09/20
想著有一陣子沒碰SD,就生成了一張繪圖來致敬。
Thumbnail
看更多
你可能也想看
Thumbnail
大家好,我是一名眼科醫師,也是一位孩子的媽 身為眼科醫師的我,我知道視力發展對孩子來說有多關鍵。 每到開學季時,診間便充斥著許多憂心忡忡的家屬。近年來看診中,兒童提早近視、眼睛疲勞的案例明顯增加,除了3C使用過度,最常被忽略的,就是照明品質。 然而作為一位媽媽,孩子能在安全、舒適的環境
Thumbnail
大家好,我是一名眼科醫師,也是一位孩子的媽 身為眼科醫師的我,我知道視力發展對孩子來說有多關鍵。 每到開學季時,診間便充斥著許多憂心忡忡的家屬。近年來看診中,兒童提早近視、眼睛疲勞的案例明顯增加,除了3C使用過度,最常被忽略的,就是照明品質。 然而作為一位媽媽,孩子能在安全、舒適的環境
Thumbnail
我的「媽」呀! 母親節即將到來,vocus 邀請你寫下屬於你的「媽」故事——不管是紀錄爆笑的日常,或是一直想對她表達的感謝,又或者,是你這輩子最想聽她說出的一句話。 也歡迎你曬出合照,分享照片背後的點點滴滴 ♥️ 透過創作,將這份情感表達出來吧!🥹
Thumbnail
我的「媽」呀! 母親節即將到來,vocus 邀請你寫下屬於你的「媽」故事——不管是紀錄爆笑的日常,或是一直想對她表達的感謝,又或者,是你這輩子最想聽她說出的一句話。 也歡迎你曬出合照,分享照片背後的點點滴滴 ♥️ 透過創作,將這份情感表達出來吧!🥹
Thumbnail
雖然有了圖生圖讓我們除了文字描述外,能利用圖片參照的方式對Stable Diffusion生成結果進行引導,但它仍然還有許多不足的地方。有些時後我並不想整張圖都完全參照,只是想提取出參考圖中單一/部分的特定元素(構圖、人物/物體間空間關係、配色、肢體動作、外觀輪廓……等)來對生成的圖像結果進行約束.
Thumbnail
雖然有了圖生圖讓我們除了文字描述外,能利用圖片參照的方式對Stable Diffusion生成結果進行引導,但它仍然還有許多不足的地方。有些時後我並不想整張圖都完全參照,只是想提取出參考圖中單一/部分的特定元素(構圖、人物/物體間空間關係、配色、肢體動作、外觀輪廓……等)來對生成的圖像結果進行約束.
Thumbnail
因為想嘗試將真實照片中的人物姿態融入成品中,所以在Text2Image(文生圖)階段使用了三種ControlNet:Depth (景深)、reference_only (參照)、lightingBasedPicture_v10 (打光模型)。
Thumbnail
因為想嘗試將真實照片中的人物姿態融入成品中,所以在Text2Image(文生圖)階段使用了三種ControlNet:Depth (景深)、reference_only (參照)、lightingBasedPicture_v10 (打光模型)。
Thumbnail
  用ACG圖片訓練出來的LoRA models,時有難以使用寫實風checkpoints models繪製出滿意成果的情況。
Thumbnail
  用ACG圖片訓練出來的LoRA models,時有難以使用寫實風checkpoints models繪製出滿意成果的情況。
Thumbnail
今天要來看一個ControlNet新出的模型 -- Reference以及它的一些用法。
Thumbnail
今天要來看一個ControlNet新出的模型 -- Reference以及它的一些用法。
Thumbnail
偶而會碰到一種例子,就是在算圖時發現了一個很不錯的全身人物圖,當我將它放大之後,又想要抓個臉部特寫,卻發現人物的臉已經糊掉了。這時我們有個終極方法可以將它清晰化。
Thumbnail
偶而會碰到一種例子,就是在算圖時發現了一個很不錯的全身人物圖,當我將它放大之後,又想要抓個臉部特寫,卻發現人物的臉已經糊掉了。這時我們有個終極方法可以將它清晰化。
Thumbnail
  Stable Diffusion進入Image2Image的放大階段後,很少有算出來的成果是完全滿意的......
Thumbnail
  Stable Diffusion進入Image2Image的放大階段後,很少有算出來的成果是完全滿意的......
Thumbnail
介紹ControlNet新版本1.1,主要內容: 1.更新方式 2.介面新功能 3.新模組 4.操作方式與功能實測
Thumbnail
介紹ControlNet新版本1.1,主要內容: 1.更新方式 2.介面新功能 3.新模組 4.操作方式與功能實測
Thumbnail
ControlNet發布了1.1新版本,新增了許多不同的model,本文介紹運算大圖時非常好用的Tile Resample model。
Thumbnail
ControlNet發布了1.1新版本,新增了許多不同的model,本文介紹運算大圖時非常好用的Tile Resample model。
Thumbnail
今天來説説常用的兩個提示詞訣竅: 如何使用Automatic1111抓出提示詞 如何把圖片的提示詞匯入img2img
Thumbnail
今天來説説常用的兩個提示詞訣竅: 如何使用Automatic1111抓出提示詞 如何把圖片的提示詞匯入img2img
Thumbnail
ControlNet這個Stable diffusion外掛非常實用,相關教學可算是滿坑滿谷了,我這篇教學主要是會特別說明整個套件其實有很多功能並不實用,你只需要專注在自己真正需要的功能上就好,而我會列一些我自己的測試結果以證明我為什麼說有些功能並不實用。
Thumbnail
ControlNet這個Stable diffusion外掛非常實用,相關教學可算是滿坑滿谷了,我這篇教學主要是會特別說明整個套件其實有很多功能並不實用,你只需要專注在自己真正需要的功能上就好,而我會列一些我自己的測試結果以證明我為什麼說有些功能並不實用。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News