Stable Diffusion進階 -- 糊圖精細化

2023/08/16閱讀時間約 2 分鐘

這篇文章要來分享的是,怎麼把一張糊掉的圖精細化。

經過兩個步驟,將原本模糊的圖精細化

經過兩個步驟,將原本模糊的圖精細化

這個問題最主要的對象是已經有明顯的提示詞,並且以ControlNet的refernece_only來生產的圖。

當我們使用 Stable Diffusion進階 -- ControlNet新功能Reference 依照一個參考圖來生新圖時,有時候會因為原圖的解析度太差,或者其他因素,得到一張模糊的成果圖。

例如我使用這張圖來當作reference_only的參考源:

reference_only的參考來源

reference_only的參考來源

由於這張圖的面部表情不夠清晰,因此在低解析度時,出來的圖會非常模糊,例如這張:

原始成品圖

原始成品圖

當我們挑選到要進一步精細化的圖時,就可以開始使用一些技巧來清晰這張圖。

首先,使用PNG Info來獲取所有參數:Stable Diffusion提示詞訣竅(二)

將參數傳入txt2img,然後開啟Hires. Fix來加大圖像:

txt2img開啟Hires. fix

txt2img開啟Hires. fix

此時也別忘了將ControlNet reference_only也設定好,這樣才能產生一模一樣的圖:

ControlNet的reference_only設定

ControlNet的reference_only設定

一切都設定好之後,就生圖吧!產生出來的圖還可以進一步強化,此時將成品圖送到img2img裏面,將Denoising strength設定為0.5的中等強度,並切記將Seed的值重設回-1,否則ControlNet tile會因為重複Seed而算出很詭異的成果:

img2img設定,Seed要設定為-1

img2img設定,Seed要設定為-1

接著使用ControlNet的Tile模型,配上tile_resample預處理器來做最後的強化:

ControlNet的Tile設定

ControlNet的Tile設定

此時,為了避免過度精細化,要將Control Weight設定為0.5,但是可以將Down Sampling Rate拉到滿的8。這樣就能開始圖生圖了!

出產的新成果圖比較大張,但整個圖的清晰度進步不少:

精細化的成品圖

精細化的成品圖


用這個簡單步驟,就能將許多過於模糊的臉部特徵清晰化,有時候甚至能拯救爛掉的手指。是個代價簡單但是效果很好的方法。

另外,在img2img時,如果用同一個Seed的話,ControlNet Tile模型會重複計算同一張圖,有時候會產生詭異的過曝效果,但有時候又意外地好看:

過曝的成品圖

過曝的成品圖

祝大家AI算圖愉快!

3.9K會員
174內容數
寫奇幻小說,畫圖,心得,各式各樣作品的故鄉。
留言0
查看全部
發表第一個留言支持創作者!
從 Google News 追蹤更多 vocus 的最新精選內容