忠實放大、增添細節 ControlNet 1.1 - Tile Resample - Stable Diffusion

閱讀時間約 9 分鐘
這篇心得 Automatic1111 (A1111)/ Vlad Diffusion (Vlad)介面通用。

更新/安裝

Vlad/A1111已安裝ControlNet:
Extensions > Installed > Check for updates > Apply & restart UI (建議重開程式)
新安裝:
Extensions > Available > Load from: >找到sd-webui-controlnet > Install > 等畫面變亮 > Installed > Apply & restart UI (建議重開程式)

注意!

雖然安裝會一併下載Preprocessor,但ControlNet的model通常需要自己手動下載。這次1.1更新因為舊版的model已不適用,可全部移除後前往此頁面下載:https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main
總共有14個model,要下載的是副檔名".pth"的檔案,下載後放到extensions或extensions-builtin資料夾中的"sd-webui-controlnet\models"。
".yaml"的部分應該已在該資料夾內,如果沒有才一併下載。另外,需要移除的舊版model也是在這個資料夾中。需要注意的是.pth、.yaml是兩個檔案一組的,所以請確認下載的.pth都有對應的.yaml。
這次心得使用的model是:
下載請點紅框箭頭

Tile Resample - 忠實放大、增添細節

我在放大/多道提示詞的好幫手:MultiDiffusion插件 - Stable Diffusion一文中提到,Noise Inversion可在Image2Image放大運算時相當程度保留原圖構圖。ControlNet的Tile Resample也有同樣的功能,而且更為忠實
另外,ControlNet的model可以搭配MultiDiffusion的Tiled VAE使用來減少VRAM用量,但Tiled Diffusion部分會有衝突,往往無法一起使用。

接下來就要收入場費了(並沒有)

首先用Text2Image生成基礎原圖:
512 x 784 原圖
model: chilloutmix
vae: blessed2.vae.pt
+
complex 3d render ultra detailed of a beautiful female android, cyborg, sitting, robotic parts, 150 mm, beautiful studio soft light, rim light, dramatic lighting, neon lights, vibrant details, luxurious cyberpunk, [<lora:JapaneseDollLikeness_v15:0.5>], lace, hyper realistic, anatomical, facial muscles, silver hair, white hair, hair floating in air, (robotic eyes), cable electric wires, microchip, elegant, cyberpunk background, dark background, beautiful background, octane render, H. R. Giger style, 8k, best quality, masterpiece, illustration, extremely delicate and beautiful, extremely detailed , (realistic, photo-realistic:1.37), masterpiece, best quality, absurdres, extremely detailed,
-
bad-hands-5,  ng_deepnegative_v1_75t.pt, (low quality, worst quality:1.4), (monochrome:1.1), (greyscale), watermark, text, blurry, jpeg artifacts, cropped, normal quality, signature, username, artist name, cartoon, canvas frame, lowres, (disfigured), (bad art), (deformed), (extra limbs), (b&w), weird colors, (duplicate), (morbid), (mutilated), mutated hands, (poorly drawn hands), (poorly drawn face), (mutation), (ugly),  (bad proportions), cloned face, out of frame, gross proportions, (malformed limbs), (missing arms), (missing legs), (extra arms), (extra legs), fused fingers, (long neck), lowres, (grayscale), (skin spots), acnes, skin blemishes, (age spot), (nsfw)
Sampling method: DPM++ SDE Karras
Sampling steps: 33
Width: 512
Height: 784
CFG Scale: 5
Clip Skip: 1
Seed: 2832472998
*<lora:JapaneseDollLikeness_v15:0.5> LoRA模組由此下載
*bad-hands-5 Textual Inversion由此下載
*ng_deepnegative_v1_75 Textual Inversion由此下載
接著我將上圖傳到Image2Image,使用原本的+/-Prompts和設定,只改了下圖紅框中的設定,將圖放大一倍為 1024 x 1568:
Image2Image
接下來的四張圖全都使用了同樣的設定,差別是:
1張無使用ControlNet, 3張使用了ControlNet的Tile Resample,但使用了三種"Down Sampling Rate"。下圖是四圖同框的比較圖:
四圖比較
512 x 784 原圖
再放一次512x784原圖方便對照。
乍看一下可能覺得差別不大,但和原圖對比過的話會發現,有使用Tile Resample的三張的臉看起來和原圖像是同一個人,沒有使用的則看起來像是不同的人,尤其「眼形」的部分特別明顯。
另外像是下巴下方黑底領口的細部紋路,也是只有使用Tile Resample的三張保留了下來另外一些護具的細部尖尖角角的輪廓,也只有Tile Resample的圖保留了下來。
並且Tile Resample保留相似度的同時仍增添了細節,例如肩膀護具的網孔紋理,在保留其特徵的前提下解析度和細節都獲得了提升
無Tile Resample,護具的網孔紋理和原圖有很多不同之處,例如原本沒有的皺褶
Down Sampling Rate 1 - 很忠實地保留了原圖網孔紋理
Down Sampling Rate 4.5- 忠實地保留了原圖網孔紋理,但開始有點不同,例如反光形狀
Down Sampling Rate 8 - 相較無Tile Resmaple的圖仍更忠實地保留原圖網孔紋理,但明顯增加了不同之處
簡要言之,Down Sampling Rate數值越大,細節的自由度越高,原因在於Down Sampling Rate數值越大,ControlNet model運算時建立的原圖參考圖就越模糊:
運算參考圖的模糊程度差異
使用時的ControlNet設定參考如下:
ControlNet tile resample 介面 - 遇到Out of memory錯誤時可勾選"Low VRAM"試試看
祝大家算圖愉快!
即將進入廣告,捲動後可繼續閱讀
為什麼會看到廣告
avatar-img
82會員
104內容數
筆者探索各種感興趣事物的紀錄。 *副帳非主流政治沙龍《黑米BR不政確》:https://vocus.cc/salon/BRiceP
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
黑米BR的沙龍 的其他內容
本心得介紹MultiDiffusion with Tiled VAE插件以及通用的提升效能設定。
Vlad Diffusion(下略Vlad)和 Automatic1111(下略A1111)相較: 優點 1. 介面優化 2. 效能優化 -針對 Torch 2.0 優化 -使用 SDP(Scaled Dot Product)優化運算,無須 xFormers 也可顯著提升效能、降低
  可能是這個問題太過基本,所以網路上幾乎沒有人在提問或回答,但我一開始嘗試Stable Diffusion時,常會遇到一個令我困擾的問題----紫色斑塊。
Textual Inversion embedding   玩過Stable Diffusion(下以SD略稱之),並且有前往CIVITAI等網站下載其他人訓練的AI模型的玩家......
本教學使用Automatic 1111介面   AI繪圖風行至今,網上已有不少中文教學,包括教導如何訓練LoRA、LoCon等模型的文章,而訓練上述模型時,通常會經過一道「Preprocess Images」工序,中文稱為「圖片預處理」。
先說結論:   演算Img2Img時,Sampling Methods(取樣方法)中Karras類型比較忠於原圖,非Karras類型比較放飛自我。
本心得介紹MultiDiffusion with Tiled VAE插件以及通用的提升效能設定。
Vlad Diffusion(下略Vlad)和 Automatic1111(下略A1111)相較: 優點 1. 介面優化 2. 效能優化 -針對 Torch 2.0 優化 -使用 SDP(Scaled Dot Product)優化運算,無須 xFormers 也可顯著提升效能、降低
  可能是這個問題太過基本,所以網路上幾乎沒有人在提問或回答,但我一開始嘗試Stable Diffusion時,常會遇到一個令我困擾的問題----紫色斑塊。
Textual Inversion embedding   玩過Stable Diffusion(下以SD略稱之),並且有前往CIVITAI等網站下載其他人訓練的AI模型的玩家......
本教學使用Automatic 1111介面   AI繪圖風行至今,網上已有不少中文教學,包括教導如何訓練LoRA、LoCon等模型的文章,而訓練上述模型時,通常會經過一道「Preprocess Images」工序,中文稱為「圖片預處理」。
先說結論:   演算Img2Img時,Sampling Methods(取樣方法)中Karras類型比較忠於原圖,非Karras類型比較放飛自我。
你可能也想看
Google News 追蹤
Thumbnail
本文章介紹了ControlCom影像合成模型的技術與架構,以及其與其他方法的比較。模型具有可控的圖像合成能力,並提供了豐富的細節信息。文章詳細解釋了模型的優勢、方法與架構,以及數據準備和結果與結論。
Thumbnail
大約一星期前,我訂閱了 Tensor.Art 的一年份 PRO 訂閱(台幣 $1480 沒記錯的話),那麼,簡單說一下...這一周來,我用它做了什麼呢? 1.下載網路上一個蠻酷的模型,把它上載到 TensorArt 成私人模型,自己用。
Thumbnail
Stable Diffusion 的 Mov2Mov 套件是一個非常強大的工具,讓你可以自動化和簡化視頻轉換過程。這個套件特別適合那些希望在視頻中進行面部替換、添加配件或改變角色外觀的人。這裡是關於這個套件的一些詳細介紹: 功能和優點 自動化視頻轉換: Mov2Mov 可以自動化視頻到
Thumbnail
Enhance This HiDiffusion SDXL是一個AI模型,結合HiDiffusion和SDXL兩種圖像生成模型,可以根據既有影像和文字描述生成新的圖像,可用來提高圖像解析度、修復瑕疵、轉換風格和自由創造新的圖像。
延續使用Meta釋出的模型,實作Chat GPT - Part 2 我們已經確定可以進入HuggingFace之後,就要來載入模型,其對應程式為: Model_Config = transformers.AutoConfig.from_pretrained( Mode
Thumbnail
我突然想要畫一些像 "模型" 的人物,於是就想找找,有沒有什麼模型,畫出來的人物就像模型...哈哈哈! 有沒有很繞口,知道我是什麼意思吧? (以下排名不分先後,每個模型給您三張圖參考,提示詞放在文末!)
Thumbnail
Tensor Art 使用 Stable Diffusion 的各種模型,也能使用ControlNet 和 LoRA功能,根據使用者的輸入來文生圖、圖生圖,生成各種風格的高質量圖像,包括人像、動人的風景、創意的抽象畫等。
Thumbnail
本篇文章參考 Youtube 影片(...二次元模型...)內容,為大家找出影片中的模型,直接作圖測試,您直接連結過去,就可以在 TensorArt 內直接使用囉!
Thumbnail
本篇文章參考 Youtube 影片(...真實模型推薦...)內容,為大家找出影片中的模型,直接作圖測試,您直接連結過去,就可以在 TensorArt 內直接使用囉!
Thumbnail
可能包含敏感內容
一個雙手撫弄頭髮的女生... Tensor.Art 連結在此,登入後可以使用 做同款(Remix) 功能產生類似圖片喔(AI 生圖)。 好的,廢話不多說,直接提供 ControlNet 的 Openpose 圖片~
Thumbnail
本文章介紹了ControlCom影像合成模型的技術與架構,以及其與其他方法的比較。模型具有可控的圖像合成能力,並提供了豐富的細節信息。文章詳細解釋了模型的優勢、方法與架構,以及數據準備和結果與結論。
Thumbnail
大約一星期前,我訂閱了 Tensor.Art 的一年份 PRO 訂閱(台幣 $1480 沒記錯的話),那麼,簡單說一下...這一周來,我用它做了什麼呢? 1.下載網路上一個蠻酷的模型,把它上載到 TensorArt 成私人模型,自己用。
Thumbnail
Stable Diffusion 的 Mov2Mov 套件是一個非常強大的工具,讓你可以自動化和簡化視頻轉換過程。這個套件特別適合那些希望在視頻中進行面部替換、添加配件或改變角色外觀的人。這裡是關於這個套件的一些詳細介紹: 功能和優點 自動化視頻轉換: Mov2Mov 可以自動化視頻到
Thumbnail
Enhance This HiDiffusion SDXL是一個AI模型,結合HiDiffusion和SDXL兩種圖像生成模型,可以根據既有影像和文字描述生成新的圖像,可用來提高圖像解析度、修復瑕疵、轉換風格和自由創造新的圖像。
延續使用Meta釋出的模型,實作Chat GPT - Part 2 我們已經確定可以進入HuggingFace之後,就要來載入模型,其對應程式為: Model_Config = transformers.AutoConfig.from_pretrained( Mode
Thumbnail
我突然想要畫一些像 "模型" 的人物,於是就想找找,有沒有什麼模型,畫出來的人物就像模型...哈哈哈! 有沒有很繞口,知道我是什麼意思吧? (以下排名不分先後,每個模型給您三張圖參考,提示詞放在文末!)
Thumbnail
Tensor Art 使用 Stable Diffusion 的各種模型,也能使用ControlNet 和 LoRA功能,根據使用者的輸入來文生圖、圖生圖,生成各種風格的高質量圖像,包括人像、動人的風景、創意的抽象畫等。
Thumbnail
本篇文章參考 Youtube 影片(...二次元模型...)內容,為大家找出影片中的模型,直接作圖測試,您直接連結過去,就可以在 TensorArt 內直接使用囉!
Thumbnail
本篇文章參考 Youtube 影片(...真實模型推薦...)內容,為大家找出影片中的模型,直接作圖測試,您直接連結過去,就可以在 TensorArt 內直接使用囉!
Thumbnail
可能包含敏感內容
一個雙手撫弄頭髮的女生... Tensor.Art 連結在此,登入後可以使用 做同款(Remix) 功能產生類似圖片喔(AI 生圖)。 好的,廢話不多說,直接提供 ControlNet 的 Openpose 圖片~