AI繪圖-Stable Diffusion 012- ControlNet 物品類型約束(語義分割)

閱讀時間約 3 分鐘
raw-image

語義分割(Semantic Segmentation)指的就是針對畫面中每個像素點進行辨別分類(山、河流、人、車、沙發….等),並將同一類型的區域分塊標註成特定顏色。而ControlNet的控制約束裡就有這一項功能。

從下方圖示就可以很清楚明瞭何謂語義分割 :

raw-image

(上圖來自網站OneFormer : https://huggingface.co/spaces/shi-labs/OneFormer,很多時後ControlNet本身的Segmentation預處理器辨識分類效果不理想時也可以直接到這網頁上試看看其它演算的效果,產出Segmentation Map 再丟回SD算圖)



Segmentation預處理器 & 實例

ControlNet的Seg預處理器目前有3種,各別預處理圖的效果與成像實例如下圖所示。目前測試下來,絕大多數的情況,seg_ofade20k的效果都比較理想,辨別的準度相較較高。

raw-image
raw-image


Segmentation 的應用

Segmentation的預處理圖讓我想到之前圖生圖裡的Sketch塗鴉功能。只是在用Sketch塗鴉功能時,在提示詞裡多少還是要將畫面的內容物進行文字的描述,告訴SD畫面中我塗鴉的地方各別大約需要些什麼內容物。但如果應用上Segmentation,語義分割事先就將每個不同的顏色定義出特定的物品類型了,我們可以不用再多做文字描述SD就知道該畫些什麼東西出現在畫面中。而且很多時後,當畫面內容物愈複雜時,SD未必就這麼看得懂你所有的文字描述,但語義分割後的區塊則就很明確有效地限制住SD該畫些什麼類型的物品出來。

(PS.題外話~ 在AI繪圖開始熱門後,網路上風氣好像AI繪圖就得要去學很高深複雜的”詠唱術”,非得寫出一堆落落長的文字描述不可才比較厲害,然後就得到處去學/找/抄提示詞來愈加愈長。但我真的很不喜歡這種方式,我還是喜歡圖像盡量可以回歸直覺直觀的用圖去和AI溝通。所以在所有的文章範例中或是平時在用AI產圖時,我都是盡可能的不去寫太多提示詞的文字描述,甚至有時能省就省給它全空白。我相信AI只會愈來愈聰明,未來不斷出現的繪圖模型被餵進去的原圖品質只會愈來愈好,應該不用永遠都需要我很囉唆地去講一堆文字描述說明我的想法或是去規定它的畫質/品質吧~)

我們可以事先把一張看起來符合自己大致理想的畫面構圖進行語義分割,之後再丟進Photoshop裡自行塗鴉調整/增減畫面中的色塊(內容物) :

如下圖,原圖中左邊的草地禿了一塊,我想把它補上,另外左後方再加間小木屋。

raw-image

又或者可以自行查看 Segmentation Color Code ,找出每種物品類型對應的顏色來畫張色塊塗鴉稿,再讓SD來生圖。

從Color Code裡找到Lake的色碼是”#0ABED4″,同樣上面這張風景圖我就再加上個門前有湖、門口出入的道路改道繞一下…..

raw-image



 另外一個搭配應用就是,前面文章我們提到過Depth深度約束能夠表達畫面物品前後深度關係,但並無法紀錄下不同深度下的內容物品分別是什麼,而現在Seg則是可以標註畫面區塊的內容物類別,可是它是平面的,缺少深度的訊息。

那麼在使用SD生成圖像必要時我們就可以把這兩者互相配合使用,就像前一篇OpenPose動作姿勢約束裡的案例一樣,有些需要考慮深度前後位置關係的動作光靠骨架圖無法直接產出理想的畫面時,我們就再加一個Depth深度約束來一起使用。

ControlNet的某些約束類型很多時後單一使用並不這麼好用/或是無法有效解決問題,總是會覺得還不夠精準明確/有點廢。但其實就是要多花些時間/耐心,想一下把各種組合搭配試看看/截長補短,同時也可以結合原本所學過的其它軟體應用一起實驗。最後會發現很多功能再廢,經過思考配合,在某些特定時後它也是能發揮出大作用的~

記錄店小二建立網賺被動收入歷程、自我學習成長以及各類財富自由資訊的分享專區。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
ControlNet的OpenPose是一開始最主要引起大家關注的一項約束類型。透過提取出原圖中人物的動作姿勢骨架圖,讓我們可以更精準地做到對成像人物姿勢的掌控,即使是一些光靠文字描述也形容不出的動作姿勢,也能輕易實現。 OpenPose 預處理器 & 實例 OpenPose目前的預處理器有
ControlNet的Depth可以提取出畫面中人物/物體的前後關系/前景後景的分別,而Normal(法線)則可以紀錄出畫面中物體的凹凸面訊息。透過這兩種ControlNet約束類型,就可以幫助我們對成像的空間深度關係與物體的凹凸立體感/亮面暗面的光影效果進行約束控制。 Depth Dept
ControlNet裡,目前針對邊緣檢測進行線條約束的類型分別有Cannny、Lineart、SoftEdge、Scribble以及MLSD。
雖然有了圖生圖讓我們除了文字描述外,能利用圖片參照的方式對Stable Diffusion生成結果進行引導,但它仍然還有許多不足的地方。有些時後我並不想整張圖都完全參照,只是想提取出參考圖中單一/部分的特定元素(構圖、人物/物體間空間關係、配色、肢體動作、外觀輪廓……等)來對生成的圖像結果進行約束.
外掛擴充 Extensions對Stable Diffusion來說非重要,如果少了它,SD就不會如此豐富多元,比起其它繪圖AI更具可玩性。在開始介紹一些好用實用的外掛前,我們先來了解一下WebUi上所有外掛程式安裝、更新、移除與備份的方法。
雖然有了文生圖、圖生圖可以負責幫我們畫圖/算圖,但使用文生圖或圖生圖在算圖時,目前依電腦顯卡設備的不同,都有一定的極限值在,想要直接畫出4k、8k或者是16k以上的高清圖又不爆顯存實在有困難。因此我們就需要有能夠把小圖高清放大的功能(Extras頁籤底下的智慧放大-Upscale)。 Extr
ControlNet的OpenPose是一開始最主要引起大家關注的一項約束類型。透過提取出原圖中人物的動作姿勢骨架圖,讓我們可以更精準地做到對成像人物姿勢的掌控,即使是一些光靠文字描述也形容不出的動作姿勢,也能輕易實現。 OpenPose 預處理器 & 實例 OpenPose目前的預處理器有
ControlNet的Depth可以提取出畫面中人物/物體的前後關系/前景後景的分別,而Normal(法線)則可以紀錄出畫面中物體的凹凸面訊息。透過這兩種ControlNet約束類型,就可以幫助我們對成像的空間深度關係與物體的凹凸立體感/亮面暗面的光影效果進行約束控制。 Depth Dept
ControlNet裡,目前針對邊緣檢測進行線條約束的類型分別有Cannny、Lineart、SoftEdge、Scribble以及MLSD。
雖然有了圖生圖讓我們除了文字描述外,能利用圖片參照的方式對Stable Diffusion生成結果進行引導,但它仍然還有許多不足的地方。有些時後我並不想整張圖都完全參照,只是想提取出參考圖中單一/部分的特定元素(構圖、人物/物體間空間關係、配色、肢體動作、外觀輪廓……等)來對生成的圖像結果進行約束.
外掛擴充 Extensions對Stable Diffusion來說非重要,如果少了它,SD就不會如此豐富多元,比起其它繪圖AI更具可玩性。在開始介紹一些好用實用的外掛前,我們先來了解一下WebUi上所有外掛程式安裝、更新、移除與備份的方法。
雖然有了文生圖、圖生圖可以負責幫我們畫圖/算圖,但使用文生圖或圖生圖在算圖時,目前依電腦顯卡設備的不同,都有一定的極限值在,想要直接畫出4k、8k或者是16k以上的高清圖又不爆顯存實在有困難。因此我們就需要有能夠把小圖高清放大的功能(Extras頁籤底下的智慧放大-Upscale)。 Extr
你可能也想看
Google News 追蹤
Thumbnail
GNN發展背景 傳統的深度學習模型如在計算機視覺(CV)和自然語言處理(NLP)領域中極為成功,主要是處理結構化數據如影像和文本。這些數據類型通常具有固定且規律的結構,例如影像是由有序的像素點組成。然而,在真實世界中,許多數據是非結構化的,如化合物結構(原子和分子)。這些數據雖然具有一定的規則性,
Thumbnail
本文要探討AI的任務與實戰場景。AI技術已深入生活各層面,從違約預測到都市交通管理。AI任務主要有三類:數值型資料處理、自然語言處理(NLP)和電腦影像辨識。時間序列資料和強化學習方法(如AlphaGo)也引起廣泛關注。AI演算法和方法因應不同學派和技術發展而多樣化,了解這些基礎有助選擇適合研究方向
Thumbnail
我 Tensor.art 加入 PRO 之後,每天有 300 點,就是可以亂搞~ 哈哈! 上圖是正常的出圖(提示詞: Big green trees, rainbow after rain, grass),以下由 ChatGPT 提示我幾種畫風,我來把它套用到提示詞中,來看看出圖效果如何?
Thumbnail
網格擴散可以就像剪紙一樣,把紙上想要的部分剪下來。 通過模型的一個點,找到周圍相鄰的點;其他點又能找到周圍相鄰的點,就像水波一樣擴散出去。 許多3D的算法,如裁切、干涉深度偵測等都會用到。
Thumbnail
感知器是一種基本的神經網路模型,用於二分類問題。它模擬了人腦神經元的工作原理,通過調整權重和偏差值來達到預測和分類的目的。 感知器流程 輸入 資料的輸入: 輸入層接受資料的輸入,每個輸入對應一個特徵,還有一個固定的偏差神經元。 資料經過每個神經元時,會乘上相應的
我們知道AI的作法可以分為Supervised Learning、Unsupervised Learning、Reinforcement Learning,整題區分如下圖: 圖片出處:https://www.superannotate.com/blog/supervised-learning-an
Thumbnail
嘗試用Bing會圖,但有些疑問,遠景、主體、光線 三層的描述不知應如何寫在同一次的設計指令中。莫非只能像現在這樣,分批寫逐漸疊圖嗎?
Thumbnail
Tensor Art 使用 Stable Diffusion 的各種模型,也能使用ControlNet 和 LoRA功能,根據使用者的輸入來文生圖、圖生圖,生成各種風格的高質量圖像,包括人像、動人的風景、創意的抽象畫等。
Thumbnail
本文介紹如何使用OpenCV的分水嶺演算法來實作硬幣的影像分割。除了官方範例外,還加入取出分割後物件的中心點來標註的功能。透過二值化、距離圖、前景圖、分割背景圖等步驟,最後應用分水嶺演算法進行硬幣的分割。本文也提供程式範例及圖示逐步解析演算法。
Thumbnail
Sequential Feature Selection(SFS) 用中文來解釋為,逐一特徵選取訓練,找出最重要的特徵,以提高模型的性能和效率 SFS 的一些用途包括: 維度縮減: 在高維度數據中,許多特徵可能是多餘或不重要的,使用 SFS 可以找到最能代表數據的特徵,從而減少計算和記憶體需求
Thumbnail
GNN發展背景 傳統的深度學習模型如在計算機視覺(CV)和自然語言處理(NLP)領域中極為成功,主要是處理結構化數據如影像和文本。這些數據類型通常具有固定且規律的結構,例如影像是由有序的像素點組成。然而,在真實世界中,許多數據是非結構化的,如化合物結構(原子和分子)。這些數據雖然具有一定的規則性,
Thumbnail
本文要探討AI的任務與實戰場景。AI技術已深入生活各層面,從違約預測到都市交通管理。AI任務主要有三類:數值型資料處理、自然語言處理(NLP)和電腦影像辨識。時間序列資料和強化學習方法(如AlphaGo)也引起廣泛關注。AI演算法和方法因應不同學派和技術發展而多樣化,了解這些基礎有助選擇適合研究方向
Thumbnail
我 Tensor.art 加入 PRO 之後,每天有 300 點,就是可以亂搞~ 哈哈! 上圖是正常的出圖(提示詞: Big green trees, rainbow after rain, grass),以下由 ChatGPT 提示我幾種畫風,我來把它套用到提示詞中,來看看出圖效果如何?
Thumbnail
網格擴散可以就像剪紙一樣,把紙上想要的部分剪下來。 通過模型的一個點,找到周圍相鄰的點;其他點又能找到周圍相鄰的點,就像水波一樣擴散出去。 許多3D的算法,如裁切、干涉深度偵測等都會用到。
Thumbnail
感知器是一種基本的神經網路模型,用於二分類問題。它模擬了人腦神經元的工作原理,通過調整權重和偏差值來達到預測和分類的目的。 感知器流程 輸入 資料的輸入: 輸入層接受資料的輸入,每個輸入對應一個特徵,還有一個固定的偏差神經元。 資料經過每個神經元時,會乘上相應的
我們知道AI的作法可以分為Supervised Learning、Unsupervised Learning、Reinforcement Learning,整題區分如下圖: 圖片出處:https://www.superannotate.com/blog/supervised-learning-an
Thumbnail
嘗試用Bing會圖,但有些疑問,遠景、主體、光線 三層的描述不知應如何寫在同一次的設計指令中。莫非只能像現在這樣,分批寫逐漸疊圖嗎?
Thumbnail
Tensor Art 使用 Stable Diffusion 的各種模型,也能使用ControlNet 和 LoRA功能,根據使用者的輸入來文生圖、圖生圖,生成各種風格的高質量圖像,包括人像、動人的風景、創意的抽象畫等。
Thumbnail
本文介紹如何使用OpenCV的分水嶺演算法來實作硬幣的影像分割。除了官方範例外,還加入取出分割後物件的中心點來標註的功能。透過二值化、距離圖、前景圖、分割背景圖等步驟,最後應用分水嶺演算法進行硬幣的分割。本文也提供程式範例及圖示逐步解析演算法。
Thumbnail
Sequential Feature Selection(SFS) 用中文來解釋為,逐一特徵選取訓練,找出最重要的特徵,以提高模型的性能和效率 SFS 的一些用途包括: 維度縮減: 在高維度數據中,許多特徵可能是多餘或不重要的,使用 SFS 可以找到最能代表數據的特徵,從而減少計算和記憶體需求