ComfyUI 研究 - 圖像提示詞

更新於 發佈於 閱讀時間約 3 分鐘

這篇要講的圖像提示詞概念是在AI繪圖的過程中輸入圖片,讓AI去理解圖像內容,或是直接參考圖像的構圖或色彩,再產生新的圖片。

雖然我最常用的是文字提示詞的方式生圖,但是圖像提示詞的應用比文字提示詞更廣也更加複雜,尤其在生成影片的範疇。

即使OpenAI在近日發表了強大的文生影片的Sora模型,但畢竟沒有開源,很多玩家也受限於預算跟硬體,在短期內應該還不會影響到其他介面的使用者。

以下介紹幾個使用圖像提示詞的工作流。


官方圖生圖

ComfyUI官方提供的圖生圖工作流就是將KSampler>latent_image輸入來源改成VAE Encode。

raw-image


VAE Encode需要輸入image跟vae,然後轉換成latent image給其他節點使用。

在我之前的文章中,我直接串接VAE Encode跟VAE Decode加上VAE後,不用經過重新採樣(KSampler)就可以套用VAE讓圖像的品質改變。

ComfyUI 研究 - VAE Encode/ Decode

而官方的圖生圖工作流則是加入模型跟文字提示詞後,以來源影像轉換的latent image為其礎進行重新採樣重繪,會受到選用的模型跟文字提示詞影響出圖結果。

這個工作流的關鍵點還有denoise的數值設定,數值愈接近1,畫出來的圖會愈不像原圖,數值太低則是重繪程度太低,感受不到重繪的效果。

這個工作流的缺點在於文字提示詞在denoise>0.5時重要性會大幅提升,如果文字提示詞太少的話,會畫不出想要的畫面。


WD14 Tagger 圖生文生圖

下面的工作流是使用WD14 Tagger這個節點讓AI幫來源圖片打標籤,再輸出字串到文字提示詞節點使用,因為沒有將來源圖片作為基底,生出來的圖基本上就是文生圖的結果,跟原圖的差異很大,但原圖被辨識出來的元素有出現在生成的圖像裡。

raw-image


WD14 Tagger 圖生文+圖生圖

下面的工作流結合了WD14 Tagger圖生文跟官方圖生圖工作流程,生成的圖像在denoise = 0.7 時也可以生成接近原圖的圖片。

這個工作流適合拿來做風格轉換。

raw-image


結合不同影像

下面的工作流中,WD14 Tagger的來源圖片跟VAE Encode的來源圖片不同,生成的影像具備A影像的標籤元素與B影像的內容資訊。

這個工作流適合拿來結合不同圖片元素。

raw-image


SD Prompt Reader

下面這個工作流不同於WD14 Tagger的自動打標籤,而是去讀取圖片內含的提示詞等資訊,輸出給其他節點使用。

raw-image


如果原本是WebUI的使用者,在轉換到ComfyUI時一定會發現很難生成一樣的圖。

除了像之前這篇文章:ComfyUI 研究 - 預設工作流修改成A1111算法,把工作流改成WebUI的算法外,還要找到原本的提示詞、seed等資訊一一輸入。

雖然可以打開WebUI把圖片丟進去看這些資訊,但是使用SD Prompt Reader這個節點就可以省去這個步驟,直接把讀取到的資訊手動或自動輸入到其他節點使用。

唯一的缺點是輸入的圖片讀不到相關資訊時會報錯。


其他

其他諸如IPAdapter、Controlnet、InstantID、FaceSwap等節點,只要是需要輸入圖片作為參考的節點,廣泛來講都可以算是圖像提示詞的應用。

如果可以在使用時免去文字提示詞的部分,直接生成想要的人物、構圖、風格...,其實可以省去使用者更多測試跟思考的時間。

畢竟AI繪圖模型在訓練時,都是先有來源圖像,再讓AI自動打標,然後經過大量圖片跟長時間的訓練後才完成的。

自動化跟無腦使用,相信是AI繪圖要普及的兩個要素。

avatar-img
8.0K會員
81內容數
AI的時代已經來臨
留言2
avatar-img
留言分享你的想法!

































































Frank Hsu的沙龍 的其他內容
這篇要研究文字提示詞的處理方式。
這篇要移除畫面中的特定物品後自動填滿
這篇介紹 Allor Plugin 的影像合成用節點。
這篇要運用自動遮罩、重繪、批次的技巧,幫同一個人物更換不同背景。 自動遮罩 自動遮罩採用Segment Anything這個節點組,載入圖片後可以依指定的提示詞自動產生遮罩圖像,這邊我要更換的是背景,所以先讓AI抓出人物後,再反轉遮罩範圍輸出,為了讓重繪圖像不要過於生硬,將遮罩進行了高斯模糊。
本篇要建立自動化的遮罩生成工作流。
這篇要研究文字提示詞的處理方式。
這篇要移除畫面中的特定物品後自動填滿
這篇介紹 Allor Plugin 的影像合成用節點。
這篇要運用自動遮罩、重繪、批次的技巧,幫同一個人物更換不同背景。 自動遮罩 自動遮罩採用Segment Anything這個節點組,載入圖片後可以依指定的提示詞自動產生遮罩圖像,這邊我要更換的是背景,所以先讓AI抓出人物後,再反轉遮罩範圍輸出,為了讓重繪圖像不要過於生硬,將遮罩進行了高斯模糊。
本篇要建立自動化的遮罩生成工作流。
你可能也想看
Google News 追蹤
Thumbnail
AI生成圖片是一個挑戰性的任務,雖然AI能理解文字需求,但仍無法完全想像心中的理想畫面。使用中文描述AI的生成效果約為5成到6成,而加入擬人化的描述可以讓AI更好地理解需求。無論如何,AI生成圖片仍面臨許多挑戰,需要更多的研究與嘗試。
Thumbnail
上次在 "AI繪圖提示詞苦手嗎" 就有請 AI 幫忙過了,這次想再分享一下,這兩天一個蠻有趣經驗,給您參考。 我這兩天一直想畫可愛的小狗站著散步,如上圖,但,一剛開始,出圖效果不好...
Thumbnail
運用生成的AI圖像來激發視覺和創意,無論是生成素材、用在社交媒體上,這些圖像都能為你的的視覺帶來獨特的風格。
Thumbnail
在學習描寫文的過程中,將思維視覺化是一個重要的教學策略。通過使用AI生成圖片功能,教師能夠幫助學生將抽象的描述轉化為具體的圖像。
Thumbnail
這篇要搭建一個同時生成寫實照片跟動漫風格圖片的工作流,還可以幫線稿上色。
Thumbnail
這篇要使用IPAdapter搭配遮罩來進行特殊的構圖方式。
Thumbnail
接續著前篇,接著我要使用圖生圖的方式去達成多人構圖的目的,本篇會使用幾種圖生圖的工作流去測試。
Thumbnail
AI生成圖片並非完全可控,所以需要很多額外手段去控制,這篇要來試試幾個方法讓生成的圖片更加可控。
Thumbnail
AI生成圖片是一個挑戰性的任務,雖然AI能理解文字需求,但仍無法完全想像心中的理想畫面。使用中文描述AI的生成效果約為5成到6成,而加入擬人化的描述可以讓AI更好地理解需求。無論如何,AI生成圖片仍面臨許多挑戰,需要更多的研究與嘗試。
Thumbnail
上次在 "AI繪圖提示詞苦手嗎" 就有請 AI 幫忙過了,這次想再分享一下,這兩天一個蠻有趣經驗,給您參考。 我這兩天一直想畫可愛的小狗站著散步,如上圖,但,一剛開始,出圖效果不好...
Thumbnail
運用生成的AI圖像來激發視覺和創意,無論是生成素材、用在社交媒體上,這些圖像都能為你的的視覺帶來獨特的風格。
Thumbnail
在學習描寫文的過程中,將思維視覺化是一個重要的教學策略。通過使用AI生成圖片功能,教師能夠幫助學生將抽象的描述轉化為具體的圖像。
Thumbnail
這篇要搭建一個同時生成寫實照片跟動漫風格圖片的工作流,還可以幫線稿上色。
Thumbnail
這篇要使用IPAdapter搭配遮罩來進行特殊的構圖方式。
Thumbnail
接續著前篇,接著我要使用圖生圖的方式去達成多人構圖的目的,本篇會使用幾種圖生圖的工作流去測試。
Thumbnail
AI生成圖片並非完全可控,所以需要很多額外手段去控制,這篇要來試試幾個方法讓生成的圖片更加可控。