AI繪圖-Stable Diffusion 010- ControlNet 空間深度/立體感約束

閱讀時間約 5 分鐘
raw-image

ControlNet的Depth可以提取出畫面中人物/物體的前後關系/前景後景的分別,而Normal(法線)則可以紀錄出畫面中物體的凹凸面訊息。透過這兩種ControlNet約束類型,就可以幫助我們對成像的空間深度關係與物體的凹凸立體感/亮面暗面的光影效果進行約束控制。


Depth

Depth各預處理器效果如下圖,所產生出來的預處理圖,畫面愈近處愈白,畫面愈遠處則顏色漸深/至全黑。

(下圖提示詞 : street view in Korea at night, rainny day)

raw-image

在depth_leres 與 depth_leres++ 預處理器下,可透過Remove Near% 與 Remove Background%調整,對預處理圖的深度效果進行增減。

raw-image

Remove Near% : 數值從0~100,由最近處(白色)往最遠處開始逐漸將畫面中不同深度的人/物去除深度,直至全白(平面沒有深度)為止。

Remove Background% : 數值從0~100,由最遠處(黑色)往近處開始逐漸將畫面中不同深度的人/物去除深度,直至全黑(平面沒有深度)為止。

raw-image

 

Depth只能提供深度的訊息,在生成圖片時無法很好的掌控物體的內容與細節,成像效果通常再加上prompt描述或是搭配其它ContronlNet的特徵約束一起使用會比較理想。

Depth + (提示詞空白)。SD沒有自行腦補出每人手裡拿的是手機,有些該畫人臉的地方也被不知何物的物體所取代~

raw-image

Depth + (提示詞:crowd of people taking piture with smart phone in the party at night)

raw-image

 

雖然Depth無法掌控物體的內容與細節,但大家可以比對一下下面2種ControlNet約束成像方式(Depth與Lineart)的差別。最後畫面都是同樣的主題構圖,但經過Depth約束處理後的成像看起來會更立體/生動(感覺得出畫面的遠近深度)。

而從Lineart的線條約束中,常理透過線條輪廓所畫出的人臉比例大小,人類能理解腦補出畫面遠近的深度感。但對SD來說只有線條特徵並無法有效理解畫面的深淺前後關係,因此所畫出來的圖也就會少了該有的透視感,畫面整體看起來會很平面。

Depth與Lineart對比 ,(提示詞都是:crowd of people taking piture with smart phone in the party at night)

raw-image

(PS.上圖畫面中各種人手畸形的部分就先忽略它吧,對AI繪圖來說,畫手本來就是弱項了,畫面中又出現這麼多小面積要畫手的構圖,要整個畫面沒有bug完全畫得正常,不管怎麼調整也實在是為難了現在的SD與自己。這種時後就會很有感,同樣的主題畫面,相機攝影完勝AI繪圖~ 這張圖相機按下快門就能完成的事,我拿SD狂刷圖+細節一個個想辦法修正可能要花更多的時間吧~ 有些圖,用拍照的比較省事,有些圖用AI畫比較快~)

 

Normal

有學過3D的人對Normal map(法線貼圖)一定不陌生,它是一種模擬凹凸處光照效果的技術。經過ControlNet Normal預處理器提取出原圖畫面中物體的凹凸面/光影亮面暗面方向訊息後,就能用來約束新生成圖像中物體的立體度與光影方向效果。

Normal的預處理器有2個,一個是Normal_bae,另一個是Normal_midas。目前為止,我都只有用Normal_bae,測試過許多圖用Normal_midas讀取出來的效果與後續生成的圖片都是不太理想與成像會有許多奇怪的紋理。

(提示詞 : black hair, white dress)

raw-image

另外當我們在使用OpenPose,遇到特定姿勢如果一直無法正確提取出來時,Normal圖也能很好彌補這部份的缺失。

如下圖左邊男人坐在椅子上翹腳的姿勢,由於OpenPose所提取的姿勢骨架圖是平面的沒有深度,對於這種畫面角度需要考慮到深度效果的姿勢時,很大機率就會無法順利生成。但如果改用Normal則可以比較容易正確還原出原圖人物的動作姿勢。

(提示詞 : a man and a woman sitting on chair talking to each other)

raw-image

不過Normal的預處理圖又會控制住畫面中過多姿勢以外我不需要的細節訊息特徵(邊桌、椅子造型樣式…等),這時如果是本身有使用3D軟體的人,當SD與ControlNet一直無法調整出理想效果時,也許就可以直接用3D軟體產出一張去除不必要細節的Normal圖來讓SD在限定的人物動作以外其它細節都自由發揮變化。

AI繪圖不是用來取代誰,小孩子才做選擇,多種工具交互截長補短,最終目的是用最快的速度達到所需出圖品質就好。過去已經學過2D、3D繪圖的人,玩SD一開始就有一定基礎的優勢在,對於現有AI繪圖與各種外掛功能的參數都很難調整出理想畫面結果的時後就沒必要死嗑在這上面一直刷圖或放棄,稍微借用一下別的工具輔助,問題就能快速解決了~

記錄店小二建立網賺被動收入歷程、自我學習成長以及各類財富自由資訊的分享專區。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
ControlNet裡,目前針對邊緣檢測進行線條約束的類型分別有Cannny、Lineart、SoftEdge、Scribble以及MLSD。
雖然有了圖生圖讓我們除了文字描述外,能利用圖片參照的方式對Stable Diffusion生成結果進行引導,但它仍然還有許多不足的地方。有些時後我並不想整張圖都完全參照,只是想提取出參考圖中單一/部分的特定元素(構圖、人物/物體間空間關係、配色、肢體動作、外觀輪廓……等)來對生成的圖像結果進行約束.
外掛擴充 Extensions對Stable Diffusion來說非重要,如果少了它,SD就不會如此豐富多元,比起其它繪圖AI更具可玩性。在開始介紹一些好用實用的外掛前,我們先來了解一下WebUi上所有外掛程式安裝、更新、移除與備份的方法。
雖然有了文生圖、圖生圖可以負責幫我們畫圖/算圖,但使用文生圖或圖生圖在算圖時,目前依電腦顯卡設備的不同,都有一定的極限值在,想要直接畫出4k、8k或者是16k以上的高清圖又不爆顯存實在有困難。因此我們就需要有能夠把小圖高清放大的功能(Extras頁籤底下的智慧放大-Upscale)。 Extr
在掌握Stable Diffusion文生圖的使用技巧幫助我們利用文字描述的組合/變化去生成所需的圖片內容後,再更進一步,我們也許會想要針對一張已經百分之七、八十符合我們需求的圖去進行部分內容的修改或是整體畫風的轉換。這時就需要有個”圖生圖 img2img”的操作介面讓我們能和SD溝通。
在SD WebUi 文生圖的介面下,我們可以通過文字描述(提示詞-prompt)搭配不同採樣演算法,迭代步數,CFG值…等參數的設定,去控制圖像模型生成我們所想要的圖片內容。
ControlNet裡,目前針對邊緣檢測進行線條約束的類型分別有Cannny、Lineart、SoftEdge、Scribble以及MLSD。
雖然有了圖生圖讓我們除了文字描述外,能利用圖片參照的方式對Stable Diffusion生成結果進行引導,但它仍然還有許多不足的地方。有些時後我並不想整張圖都完全參照,只是想提取出參考圖中單一/部分的特定元素(構圖、人物/物體間空間關係、配色、肢體動作、外觀輪廓……等)來對生成的圖像結果進行約束.
外掛擴充 Extensions對Stable Diffusion來說非重要,如果少了它,SD就不會如此豐富多元,比起其它繪圖AI更具可玩性。在開始介紹一些好用實用的外掛前,我們先來了解一下WebUi上所有外掛程式安裝、更新、移除與備份的方法。
雖然有了文生圖、圖生圖可以負責幫我們畫圖/算圖,但使用文生圖或圖生圖在算圖時,目前依電腦顯卡設備的不同,都有一定的極限值在,想要直接畫出4k、8k或者是16k以上的高清圖又不爆顯存實在有困難。因此我們就需要有能夠把小圖高清放大的功能(Extras頁籤底下的智慧放大-Upscale)。 Extr
在掌握Stable Diffusion文生圖的使用技巧幫助我們利用文字描述的組合/變化去生成所需的圖片內容後,再更進一步,我們也許會想要針對一張已經百分之七、八十符合我們需求的圖去進行部分內容的修改或是整體畫風的轉換。這時就需要有個”圖生圖 img2img”的操作介面讓我們能和SD溝通。
在SD WebUi 文生圖的介面下,我們可以通過文字描述(提示詞-prompt)搭配不同採樣演算法,迭代步數,CFG值…等參數的設定,去控制圖像模型生成我們所想要的圖片內容。
你可能也想看
Google News 追蹤
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
Thumbnail
U-Net演算法架構解析,首次介紹了U-Net的設計,架構,以及在Stable-diffusion中的應用。詳盡分析了U-Net的收縮路徑、擴展路徑、最終層,以及形變不變性的應用。同時提供了相關論文以及PyTorch實作的參考資料。
Thumbnail
攝影構圖會影響畫面的視覺平衡和觀感,像是運用三分法則等技法,能夠精準地引導觀眾的視線,使畫面更加動人。
Thumbnail
人工智慧技術為攝影帶來新創意和可能性,透過不同鏡頭景深,呈現多樣化風格和視覺效果。本文介紹遠景、全景、中景、近景、特寫和廣角等不同攝影拍攝技巧。
Thumbnail
@近幾年,開始電腦繪圖,手繪素描,畫漫畫等休閒方式。在摸索畫人物或物體的形體的時候,文化部漫畫培訓班的湯老師私下跟我說,其實畫畫的邊緣線條,就是你畫的那個東西的暗面或陰影之所在。@自從湯老師跟我點破畫圖的盲點之後,,我開始畫畫知道觀察光線的來源和明暗的分布,後來畫電腦繪圖就能自學進步一些。@今
Thumbnail
AI生成圖片並非完全可控,所以需要很多額外手段去控制,這篇要來試試幾個方法讓生成的圖片更加可控。
Thumbnail
倒影的課程是在考驗顏色的深淺及對稱概念
Thumbnail
這篇要運用自動遮罩、重繪、批次的技巧,幫同一個人物更換不同背景。 自動遮罩 自動遮罩採用Segment Anything這個節點組,載入圖片後可以依指定的提示詞自動產生遮罩圖像,這邊我要更換的是背景,所以先讓AI抓出人物後,再反轉遮罩範圍輸出,為了讓重繪圖像不要過於生硬,將遮罩進行了高斯模糊。
Thumbnail
Tensor Art 使用 Stable Diffusion 的各種模型,也能使用ControlNet 和 LoRA功能,根據使用者的輸入來文生圖、圖生圖,生成各種風格的高質量圖像,包括人像、動人的風景、創意的抽象畫等。
Thumbnail
這篇要來分享一下學習了一些攝影的知識後,用於改良AI生圖的經驗。 AI生圖可以藉由少少的幾個句子產生出非常美麗的圖片,事實上,很多時候AI生圖的極限是卡在人類使用者的想像力之下。
Thumbnail
《包圍》 照夜白電腦繪圖作品 使用軟體:Photoshop
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
Thumbnail
U-Net演算法架構解析,首次介紹了U-Net的設計,架構,以及在Stable-diffusion中的應用。詳盡分析了U-Net的收縮路徑、擴展路徑、最終層,以及形變不變性的應用。同時提供了相關論文以及PyTorch實作的參考資料。
Thumbnail
攝影構圖會影響畫面的視覺平衡和觀感,像是運用三分法則等技法,能夠精準地引導觀眾的視線,使畫面更加動人。
Thumbnail
人工智慧技術為攝影帶來新創意和可能性,透過不同鏡頭景深,呈現多樣化風格和視覺效果。本文介紹遠景、全景、中景、近景、特寫和廣角等不同攝影拍攝技巧。
Thumbnail
@近幾年,開始電腦繪圖,手繪素描,畫漫畫等休閒方式。在摸索畫人物或物體的形體的時候,文化部漫畫培訓班的湯老師私下跟我說,其實畫畫的邊緣線條,就是你畫的那個東西的暗面或陰影之所在。@自從湯老師跟我點破畫圖的盲點之後,,我開始畫畫知道觀察光線的來源和明暗的分布,後來畫電腦繪圖就能自學進步一些。@今
Thumbnail
AI生成圖片並非完全可控,所以需要很多額外手段去控制,這篇要來試試幾個方法讓生成的圖片更加可控。
Thumbnail
倒影的課程是在考驗顏色的深淺及對稱概念
Thumbnail
這篇要運用自動遮罩、重繪、批次的技巧,幫同一個人物更換不同背景。 自動遮罩 自動遮罩採用Segment Anything這個節點組,載入圖片後可以依指定的提示詞自動產生遮罩圖像,這邊我要更換的是背景,所以先讓AI抓出人物後,再反轉遮罩範圍輸出,為了讓重繪圖像不要過於生硬,將遮罩進行了高斯模糊。
Thumbnail
Tensor Art 使用 Stable Diffusion 的各種模型,也能使用ControlNet 和 LoRA功能,根據使用者的輸入來文生圖、圖生圖,生成各種風格的高質量圖像,包括人像、動人的風景、創意的抽象畫等。
Thumbnail
這篇要來分享一下學習了一些攝影的知識後,用於改良AI生圖的經驗。 AI生圖可以藉由少少的幾個句子產生出非常美麗的圖片,事實上,很多時候AI生圖的極限是卡在人類使用者的想像力之下。
Thumbnail
《包圍》 照夜白電腦繪圖作品 使用軟體:Photoshop