方格精選

Stable Diffusion進階 -- 糊圖精細化(二)

更新 發佈閱讀 4 分鐘
精細化之後的成果

精細化之後的成果

前言

這篇文章想要聊一下,在使用ControlNet的reference_only時,因為原始參考圖實在太過於模糊,造成生產出來的圖片品質不佳的情況下要怎麼使用一些技巧提高參考圖的精細度。

這個方法有個問題,就是精細化之後的人臉,並不一定吻合原始圖片的人臉,所以想要百分之百完全還原一樣的人臉與衣著,這個方法做不到。但是如果是為了製作人物角色的概念插畫,還是可以勉強一用。

正文

最近正在靠著一張大圖產生不同的人物圖樣。擁有較大面積的人物比較好處理,但是離鏡頭太遠,又穿著容易跟背景或人物頭髮混淆的衣物的角色,就會特別難處理,例如這個角色:

原始參考圖

原始參考圖

由於人物距離鏡頭太遠,加上頭上有非常難以形容的黑色頭飾,混合了黑色長袍與黑色頭髮,在使用ControlNet的reference_only來製作新圖時,出來的效果都非常慘烈,除了人物完全不像之外,畫質也非常低落,出圖跟近視沒啥差別。

在Stable Diffusion裡面,由於reference_only是將參考圖轉化進Latent Space中當作參考源,因此圖會被變成八倍小的高維度抽象像素,如果圖本身的清晰度不夠,也就是說像素與隔壁像素之間的變化不夠大,就無法抽取出太有意義的高維度像素,那這樣出來的成品就會非常模糊。

第一階段

因此,為了提高出圖品質,最好的方法就是將原始參考圖精細化,從源頭提升,才能改善這一症狀。但因為在精細化的過程中,會改造與增加細節在原始圖上,所以會慢慢偏離原始圖的樣式。這點要不斷改變提示詞來確保我們要的細節不會跑掉太多。

以我的例子,這張圖我最後使用這樣的提示詞來形容人物:

best quality, masterpiece, fantasy,
a 40 years old female with black hair, middle age,
wearing Black Hair Bowknot headband and black veil on her head, long sideburns, (black eyes:1.2), (flat chest:0.9), witch,
wearing black magic robe

在這之前嘗試了一整天不同的提示詞才獲得我感覺是對的效果。

找到可用的提示詞的方法就是先將原始圖片剪下512x512的方形圖,注重在臉部與上半身的位置,然後使用img2img搭配0.2到0.3的denoising strength,搭配上想要測試的提示詞來改造參考圖,並且將出圖尺寸增大到1024x1024,由於圖變大了,所以Stable Diffusion就可以用更多的空間修改出提示詞要的內容。

下面是我最終調整出來的第一階段參考圖:

第一階段參考圖

第一階段參考圖

第二階段

當有了比較精細的參考圖之後,接下來要生產變化較大的最終參考圖。

首先,使用同樣的提示詞,在txt2img中算圖,但是要打開ControlNet,使用canny或lineart來框定人物的輪廓,在比較之後,我使用lineart來配合算圖:

ControlNet lineart的設定

ControlNet lineart的設定

在重調尺寸的設定上,我使用Resize and Fill,因此來源圖雖然是1024x1024,但我產出的是1152x768的寬圖:

第二階段參考圖

第二階段參考圖

可以看到左右邊Stable Diffsion很聰明地幫我填了還算可以的景。

這時,我們要使用繪圖軟體,將該圖裁剪出512x512的臉部特寫(避免亂七八糟的手指入畫),然後使用img2img配合0.2到0.3的denosing strength放大成768x768,再使用inpaint塗抹臉部範圍,加上masked only來針對面部繼續精細化。

於是我得到了細節足以當做參考圖源的最終參考圖:

最終參考圖

最終參考圖

在這張參考圖的指引下,就能在txt2img下產出解析度比較高的成品圖了:

使用最終參考圖的ControlNet reference_only

使用最終參考圖的ControlNet reference_only

從成果圖來看,細節部分已經能掌握到原本角色的一些特徵了,雖然頭髮上的細節跑掉不少,但是糊成一團的問題已經解決,可以用這些圖來做第二次加工了:

產出成品

產出成品

例如使用左下角的成品圖當作ControlNet lineart的原始資料,可以做出這樣的成品:

招喚師與她的渡鴉朋友

招喚師與她的渡鴉朋友

祝大家AI算圖愉快!

留言
avatar-img
子不語怪・力・亂・神
36.2K會員
450內容數
寫奇幻小說,畫圖,心得,各式各樣作品的故鄉。
2024/04/11
今天要聊聊一個我最近AI作圖時常用的手法,就是使用真實世界的照片拼接縫合進AI生產的圖片後,補完AI作圖常出現的缺陷(歪曲的武器、錯誤的肢體姿勢、手指錯誤)。 使用這個方法,可以讓AI更貼近我所需要的完成圖,且少了很多用繪圖軟體修修補補的時間。
Thumbnail
2024/04/11
今天要聊聊一個我最近AI作圖時常用的手法,就是使用真實世界的照片拼接縫合進AI生產的圖片後,補完AI作圖常出現的缺陷(歪曲的武器、錯誤的肢體姿勢、手指錯誤)。 使用這個方法,可以讓AI更貼近我所需要的完成圖,且少了很多用繪圖軟體修修補補的時間。
Thumbnail
2023/10/15
最近這幾天都在玩Stable Diffusion近期最火紅的外掛 -- AnimatedDiff。最近加上了prompt travel這個功能,加上新的v2模型讓整體畫面變得很穩定,所以一玩下去驚為天人,決定好好研究這個東西怎麼運作。
Thumbnail
2023/10/15
最近這幾天都在玩Stable Diffusion近期最火紅的外掛 -- AnimatedDiff。最近加上了prompt travel這個功能,加上新的v2模型讓整體畫面變得很穩定,所以一玩下去驚為天人,決定好好研究這個東西怎麼運作。
Thumbnail
2023/10/05
本篇要來解說一個最近新增的ControlNet前置處理器dw_openpose_full,如何使用它來快速修正爛掉的雙手手指。 這些方法的基礎都是使用實際的參考物,例如人偶網站的手,或者手指姿勢網站的手姿勢圖片來覆蓋掉原本的手,
Thumbnail
2023/10/05
本篇要來解說一個最近新增的ControlNet前置處理器dw_openpose_full,如何使用它來快速修正爛掉的雙手手指。 這些方法的基礎都是使用實際的參考物,例如人偶網站的手,或者手指姿勢網站的手姿勢圖片來覆蓋掉原本的手,
Thumbnail
看更多
你可能也想看
Thumbnail
在 vocus 與你一起探索內容、發掘靈感的路上,我們又將啟動新的冒險——vocus App 正式推出! 現在起,你可以在 iOS App Store 下載全新上架的 vocus App。 無論是在通勤路上、日常空檔,或一天結束後的放鬆時刻,都能自在沈浸在內容宇宙中。
Thumbnail
在 vocus 與你一起探索內容、發掘靈感的路上,我們又將啟動新的冒險——vocus App 正式推出! 現在起,你可以在 iOS App Store 下載全新上架的 vocus App。 無論是在通勤路上、日常空檔,或一天結束後的放鬆時刻,都能自在沈浸在內容宇宙中。
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
vocus 慶祝推出 App,舉辦 2026 全站慶。推出精選內容與數位商品折扣,訂單免費與紅包抽獎、新註冊會員專屬活動、Boba Boost 贊助抽紅包,以及全站徵文,並邀請你一起來回顧過去的一年, vocus 與創作者共同留下了哪些精彩創作。
Thumbnail
這篇文章想要聊一下,在使用ControlNet的reference_only時,因為原始參考圖實在太過於模糊,造成生產出來的圖片品質不佳的情況下要怎麼使用一些技巧提高參考圖的精細度。
Thumbnail
這篇文章想要聊一下,在使用ControlNet的reference_only時,因為原始參考圖實在太過於模糊,造成生產出來的圖片品質不佳的情況下要怎麼使用一些技巧提高參考圖的精細度。
Thumbnail
這篇文章要來分享的是,怎麼把一張糊掉的圖精細化。 這個問題最主要的對象是已經有明顯的提示詞,並且以ControlNet的refernece_only來生產的圖。
Thumbnail
這篇文章要來分享的是,怎麼把一張糊掉的圖精細化。 這個問題最主要的對象是已經有明顯的提示詞,並且以ControlNet的refernece_only來生產的圖。
Thumbnail
想讓 Stable Diffusion 算圖更細膩精緻?本文分享兩個實用技巧,分別是 ControlNet Tile Resample,以及 Detail Tweaker LoRA,輕鬆實現細節控制,讓你的圖片從粗糙到精緻,質感大升級!
Thumbnail
想讓 Stable Diffusion 算圖更細膩精緻?本文分享兩個實用技巧,分別是 ControlNet Tile Resample,以及 Detail Tweaker LoRA,輕鬆實現細節控制,讓你的圖片從粗糙到精緻,質感大升級!
Thumbnail
實作心得 | AI是畫家,使用者是責編 即使套用超強大的插件 ControlNet,在相當於從草稿→完稿的 Img2Img Upscale 過程中,仍時常會損失初始小圖想保留的特色,以及產生奇怪的部分,就好比畫家和責編,對需求的了解總會相隔一層薄霧的差距。 於是就需要花費大量的時間篩選,一張
Thumbnail
實作心得 | AI是畫家,使用者是責編 即使套用超強大的插件 ControlNet,在相當於從草稿→完稿的 Img2Img Upscale 過程中,仍時常會損失初始小圖想保留的特色,以及產生奇怪的部分,就好比畫家和責編,對需求的了解總會相隔一層薄霧的差距。 於是就需要花費大量的時間篩選,一張
Thumbnail
這篇文章要討論一種跟 Stable Diffusion進階 -- 漸進式光影 類似,但是用了多重人物LoRA的時候,同時又要求穩定性的調整光影手法。
Thumbnail
這篇文章要討論一種跟 Stable Diffusion進階 -- 漸進式光影 類似,但是用了多重人物LoRA的時候,同時又要求穩定性的調整光影手法。
Thumbnail
Stable Diffusion 算圖時,有時算出來的人臉都像是被揍過一樣!這其實是解析度過小的問題,我們可以透過 img2img upscale 加 inpaint 的手法來解決,只需要兩階段,一起來看看怎麼做吧!
Thumbnail
Stable Diffusion 算圖時,有時算出來的人臉都像是被揍過一樣!這其實是解析度過小的問題,我們可以透過 img2img upscale 加 inpaint 的手法來解決,只需要兩階段,一起來看看怎麼做吧!
Thumbnail
今天要來看一個ControlNet新出的模型 -- Reference以及它的一些用法。
Thumbnail
今天要來看一個ControlNet新出的模型 -- Reference以及它的一些用法。
Thumbnail
偶而會碰到一種例子,就是在算圖時發現了一個很不錯的全身人物圖,當我將它放大之後,又想要抓個臉部特寫,卻發現人物的臉已經糊掉了。這時我們有個終極方法可以將它清晰化。
Thumbnail
偶而會碰到一種例子,就是在算圖時發現了一個很不錯的全身人物圖,當我將它放大之後,又想要抓個臉部特寫,卻發現人物的臉已經糊掉了。這時我們有個終極方法可以將它清晰化。
Thumbnail
  Stable Diffusion進入Image2Image的放大階段後,很少有算出來的成果是完全滿意的......
Thumbnail
  Stable Diffusion進入Image2Image的放大階段後,很少有算出來的成果是完全滿意的......
Thumbnail
今天要來講的,是如何使用Stable Diffusion來製作角色設定圖。 經過了好幾次的嘗試之後,我找出了一個最穩定出圖,且步驟最少的方法。
Thumbnail
今天要來講的,是如何使用Stable Diffusion來製作角色設定圖。 經過了好幾次的嘗試之後,我找出了一個最穩定出圖,且步驟最少的方法。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News