這篇文章要來分享的是,怎麼把一張糊掉的圖精細化。
經過兩個步驟,將原本模糊的圖精細化
這個問題最主要的對象是已經有明顯的提示詞,並且以ControlNet的refernece_only來生產的圖。
當我們使用 Stable Diffusion進階 -- ControlNet新功能Reference 依照一個參考圖來生新圖時,有時候會因為原圖的解析度太差,或者其他因素,得到一張模糊的成果圖。
例如我使用這張圖來當作reference_only的參考源:
reference_only的參考來源
由於這張圖的面部表情不夠清晰,因此在低解析度時,出來的圖會非常模糊,例如這張:
原始成品圖
當我們挑選到要進一步精細化的圖時,就可以開始使用一些技巧來清晰這張圖。
首先,使用PNG Info來獲取所有參數:Stable Diffusion提示詞訣竅(二)
將參數傳入txt2img,然後開啟Hires. Fix來加大圖像:
txt2img開啟Hires. fix
此時也別忘了將ControlNet reference_only也設定好,這樣才能產生一模一樣的圖:
ControlNet的reference_only設定
一切都設定好之後,就生圖吧!產生出來的圖還可以進一步強化,此時將成品圖送到img2img裏面,將Denoising strength設定為0.5的中等強度,並切記將Seed的值重設回-1,否則ControlNet tile會因為重複Seed而算出很詭異的成果:
img2img設定,Seed要設定為-1
接著使用ControlNet的Tile模型,配上tile_resample預處理器來做最後的強化:
ControlNet的Tile設定
此時,為了避免過度精細化,要將Control Weight設定為0.5,但是可以將Down Sampling Rate拉到滿的8。這樣就能開始圖生圖了!
出產的新成果圖比較大張,但整個圖的清晰度進步不少:
精細化的成品圖
用這個簡單步驟,就能將許多過於模糊的臉部特徵清晰化,有時候甚至能拯救爛掉的手指。是個代價簡單但是效果很好的方法。
另外,在img2img時,如果用同一個Seed的話,ControlNet Tile模型會重複計算同一張圖,有時候會產生詭異的過曝效果,但有時候又意外地好看:
過曝的成品圖
祝大家AI算圖愉快!