這篇文章要來分享的是,怎麼把一張糊掉的圖精細化。
這個問題最主要的對象是已經有明顯的提示詞,並且以ControlNet的refernece_only來生產的圖。
當我們使用 Stable Diffusion進階 -- ControlNet新功能Reference 依照一個參考圖來生新圖時,有時候會因為原圖的解析度太差,或者其他因素,得到一張模糊的成果圖。
例如我使用這張圖來當作reference_only的參考源:
由於這張圖的面部表情不夠清晰,因此在低解析度時,出來的圖會非常模糊,例如這張:
當我們挑選到要進一步精細化的圖時,就可以開始使用一些技巧來清晰這張圖。
首先,使用PNG Info來獲取所有參數:Stable Diffusion提示詞訣竅(二)
將參數傳入txt2img,然後開啟Hires. Fix來加大圖像:
此時也別忘了將ControlNet reference_only也設定好,這樣才能產生一模一樣的圖:
一切都設定好之後,就生圖吧!產生出來的圖還可以進一步強化,此時將成品圖送到img2img裏面,將Denoising strength設定為0.5的中等強度,並切記將Seed的值重設回-1,否則ControlNet tile會因為重複Seed而算出很詭異的成果:
接著使用ControlNet的Tile模型,配上tile_resample預處理器來做最後的強化:
此時,為了避免過度精細化,要將Control Weight設定為0.5,但是可以將Down Sampling Rate拉到滿的8。這樣就能開始圖生圖了!
出產的新成果圖比較大張,但整個圖的清晰度進步不少:
用這個簡單步驟,就能將許多過於模糊的臉部特徵清晰化,有時候甚至能拯救爛掉的手指。是個代價簡單但是效果很好的方法。
另外,在img2img時,如果用同一個Seed的話,ControlNet Tile模型會重複計算同一張圖,有時候會產生詭異的過曝效果,但有時候又意外地好看:
祝大家AI算圖愉快!