ComfyUI高階➁IP-Adapter工作流程

閱讀時間約 15 分鐘

歡迎回來 ComfyUI 高級教學系列第一期的第二章節,我們繼續來看看 IP-Adapter圖像提示適配器


今天會講 IP-Adapter 的工作流程(workflow)架設,如果你還不知道這是什麼?或者你是還沒有安裝成功的朋友,可以先參考一下第一章節的影片,基本上涵蓋了這個擴展所有的安裝方式。裝好之後再回來。

如果你喜歡我的內容可以在 YT 幫我點讚訂閱開啟小鈴鐺,或是加入我的文章沙龍!
你的支持就是我的更新動力。🫶




我們先來假設一下,假設 AI 是一個有近視眼的接案畫家,而你是它的甲方,平常我們使用的大模型,是它曾經學習過的記憶,也可以說是它具備的技法和基本功。
而 Prompt 就是你口頭給它提出的要求。

賈方(X

賈方(X

當你只使用 prompt 的時候,如果它沒有學過你要求的內容,那它當然就聽不懂你在說甚麼,只能硬著頭皮畫完,大概也不會是你要的東西; 如果它學過,那麼它就會按照,它對這個內容的理解來畫完。
這就是t2i。

i2i 就像是它把眼鏡摘掉之後,看著你給它的參考圖片來打個底色,拿掉圖片之後,再戴上眼鏡,根據你的需求繼續畫到完。
有近視的朋友應該能理解我的意思,起碼我自己是用穿脫眼鏡來理解 i2i 的 denoise。

使用 controlnet 就……像是你給它的,已經是完成了構圖的底稿,要它根據你的口頭需求,把這個底稿墊在下面繼續畫到完。
根據這個底稿的框架限制,就會比較強硬一點。

lora 可以算是參考畫冊,交給這個畫家,讓它現場翻閱之後,一邊參考一邊畫,這可以提供它更具體的風格要求,或是一個具體的角色,一個具體的物品。
如果它不曾學過,那麼它就可以透過這本參考書現學現賣,如果它曾經學過,那麼這本參考書,除了可以讓它更好地確定你的要求是甚麼,也可以讓它更好地回憶起某個它曾經學過,但並沒有那麼熟悉的內容。

最後,IP-Adapter 就是當你只給它一張圖片,要求它看著這張圖片,盡可能去模仿,去畫得像。你的口頭要求,和這張圖片上的內容,都一樣重要。 就像肖像畫,畫家會看著臉或是照片,來畫得像這個人,同時也保持著一部分他自己的風格。


這就是我們這一期在介紹的神奇工具,IP-Adapter




🎉 GoingBus 串流媒體合租平台 🎉

省錢看片!和世界各地的用戶一起分攤訂閱費,用最低價格享受 Netflix、Disney+ 等熱門串流服務,還有 GPT-4!立即訂閱 GoingBus,輕鬆合租,一起省錢吧!

✨首購輸入優惠碼:windbro,再享九折優惠!✨

GoingBus首頁:https://goingbus.com?s=Huk4FaoU




基礎IPA工作流程

那麼我們就來看一下 workflow 要怎麼排。

首先,老樣子使用 load default 叫出一個基礎工作流程

接下來你可以透過兩種方式,來添加 IP-Adapter 的方塊:
一個是使用搜尋框輸入 ipadapter;
另一個方式是空白處右鍵,add node 然後往下找到 ipadapter 分類。

raw-image

想搭建最簡易的 IPAdapter workflow,我們要添加進這個畫面的,總共只有個方塊。

  • 第一個,你可以選擇 IPAdapter 或是 IPAdapter Advanced
  • 第二個,在 ipadapter 方塊的左邊找到 ipadapter 小點,往外拉新增 IPAdapter Unified Loader,如果你今天是要讓 AI 特別針對長相來處理的話,就選 IPAdapter Unified Loader FaceID,這個我們後面也會來跑一下,給各位看看。
  • 最後一個,是從左邊的 image 小點,往外拉新增一個 Load image 方塊。

加完之後,把線連一連就搞定了。


現在的 ipadapter plus 已經把參數設置做得比以前更簡單了,我們把最重要的幾個看一下吧。

raw-image

權重weight是指作為圖像提示的 ipadapter,將會介入生成的權重,它跟 Ksampler 的 CFG 之間有著關鍵的互相影響問題。
ipadapter 的權重越,圖像提示對生成的干涉就越,這時候如果你把 CFG 也設很高,就比較容易產生過擬合
簡單來說,就是文字和圖像的提示,兩邊同時在搶奪生成控制權的感覺。

raw-image

當然這還是要取決於,你想要的畫面,以及模型prompt輸入圖像之間的適配程度,也許測試後,你會覺得兩邊都設高的結果才是你喜歡的,也說不定。

那這個權重官方推薦的數值是 0.8
如果設置為 1 的情況,CFG 就不建議超過 7
如果你使用的大模型是 XL 系的,那麼 CFG 不建議超過 5

下面的開始跟結束 start_at/end_at,之前也有看過對吧,它就是讓你設定 ipadapter,在整個生成的降噪過程中,是否要全程參與干涉,所以這兩個數值能設定的參數,都是在 0-1 之間。

最後一個,是影響它的分離交叉注意力,是要更注重於圖像提示的內容,還是文字提示的內容。

raw-image

接下來我們看 unified loader,這裡是讓你選擇,要使用前面下載的哪一個 ipadapter 提取模型,分別提供了從輕到重,六種不同的圖像特徵提取強度,越強力的提取模型,能夠體現出的風格就越明顯。
但是越明顯不一定就越好,所以還是要根據你期望得到的結果來作調整。

要注意一下,其中 lightfull face 這兩個選項,只能應用在 SD 1.5 系的模型上


最後就要來上傳圖片,作為圖像提示。

首先你需要知道一個重要的觀念,ipadapter 處理圖像提示的方式是正方形,無論你輸入的圖片是甚麼尺寸,它都會自動從最上方來抓取 1:1 的正方形內容,尺寸最準確的話應該要裁切到 224x224,這是 clip vision 所能處理的大小。

所以,比較建議你要麼先在繪圖軟體,或影像編輯軟體中,裁切好你要使用的圖片,要麼就添加一個用來裁切的預處理方塊

當然你也可以擺爛讓它自己隨便切。🤣


裁切圖片的方塊有兩種。

raw-image

在搜尋框打上 crop,選擇 ImageCrop,這個方塊是 comfy 自帶的,可以設定長寬和精準的裁切起始點座標,把裁切完後的圖片輸入到 ipadapter 裡面,然後多拉一個預覽方塊出來,你就可以開始調整裁切後要保留的內容了。
不過這個東西它是不能調整大小(圖片尺寸)的,有時候你的圖片可能本身就很大,直接切成可能包含的有效內容太少。
這時候你可以選擇在外部先縮放好圖片大小,或是添加一個 resize 方塊,來重新調整圖片尺寸。

懶得手動計算的朋友,可以把模式調整成 crop and resize

另一個方塊叫做 Prep Image For ClipVision,這是 ipadapter plus 內包含的功能,能直接用選單來指定裁切的起始位置,它會自動等比例把圖片縮放並裁切到 224x224,可以調整銳利化程度,讓圖像中的特徵能更好地被 ipadapter 抓取。

或者,你也可以使用 windows 自帶的圖片預覽工具來做預先處理。

只要能讓你最後輸入進去的東西,上面確實有你想要被提取的內容,就好了,方法都無所謂。


上傳好圖片之後,我們就可以來調整基礎工作流程裡面的其他內容,在測試的階段,我會先固定 seed,採樣調度也會選擇最基本的。把文字提示的部分先清空,我們跑幾張圖來看看。

這樣就完成了基礎的 IPAdapter workflow。




FaceID 換臉工作流程

著重於提取臉部特徵的 FaceID 工作流程,其實跟剛剛那個基礎的差不多。

raw-image

懶惰一點的朋友可以直接在 Unified Loader 選擇 plus face or full face
那勤快一點的朋友,你可以選擇把 Unified Loader 換成 Unified Loader FaceID。 然後把這個 IPAdapter 方塊也一起換掉,換成 IPAdapter FaceID

raw-image

如果你想嘗試看看後者,我們一樣從 default 工作流程開始,叫出 IPAdapter FaceID 方塊,然後 ipadapter 小點這邊往外拉,新增 Unified Loader FaceID。

其他部分的接法跟前面都一樣。

圖像的反向提示 (image_negative) 這裡,不一定需要輸入,根據你的需求來選擇要不要添加就好。

一個不太一樣的地方是,這個 clip_vision,可以拉一個 Load CLIP Vision 方塊,手動來選擇 CLIP 版本,基本上維持 ViT-H 就好,效果不好的時候再切換到 ViT-G 試試看。
當然,它也是屬於一個可添加可不添加的方塊。


臉部提取的預設總共有四種,但我們只會用到三種。

raw-image

分別是第一個 faceID 基礎版本、第三個 plus V2、和最後一個 portrait (style transfer),那個 SD 1.5 only 的版本其實不太有使用的必要,如果你真的想試試看,那就需要回到 ipadapter plus 的 github,去把寫著棄用 (Deprecated) 的模型和 lora 載下來,才可以使用這個模式。

我忘記我到底有沒有把這個,放在上次提供的模型包裡面了,所以也許,如果你是抓我打包的模型,可能不需要再另外下載,嗎?🙂

那它一樣在輸入圖片的部分,只能處理正方形的圖片,記得先做好裁切。

raw-image

FaceID 吃的是臉型跟五官,上至髮際線,下至下頷線,不吃髮型,但偶爾會因為髮際線吃到一點頭髮顏色。
建議使用正面、平光、沒有臉部裝飾品、沒有瀏海遮蓋的圖片來做為參考。整個圖片最好就只有臉,或者頭部,不要包含身體,因為並沒有什麼屁用。🙏




指定服裝

說完了基礎工作流程,和臉部參考工作流程,我們來多講一個簡單的應用方式——讓人物穿上你指定的服裝

我這邊提供的方法,基於一個前提:
  不額外安裝其他的擴展,也不需要你做外部處理。
  像是用繪圖軟體畫遮罩,或是提取色碼來生成遮罩。

以基礎工作流程加上 IPAdapter,就能搭建出來。

那架構簡單,相對的控制精準程度就會比較低,如果你想要非常漂亮、非常精準地呈現換裝結果——🤣歡迎訂閱我的頻道或沙龍,之後我們會來研究一下。


在開始之前你需要先準備幾張圖片:

  • 衣服的圖片,一件或兩件。
    我們這邊的架構是準備作上下兩個部份分別指定,所以建議你準備上衣和褲子或裙子,盡量是只有衣服本身的圖片。
  • 一個人物的全身圖
    這個人物圖本身並不會被吃進去吼,它只作為畫遮罩的相對位置參考來使用。


那我們一樣從 default 開始。

raw-image

叫出組 unified loader 和 ipadapter,這邊我們選擇進階版的 ipadapter advanced,因為等一下需要它的控制項。

然後從 image 小點拉出 load image 方塊,從這個 attn_mask 小點也拉個 load image 方塊。
現在總共會有四個輸入圖片的地方,這四個要放的東西都不太一樣。

全部叫好之後,把 ipadapter 之間接一下,一路接去 Ksampler。

raw-image

接下來,你可以先上傳圖片。

一組方塊代表上衣區塊,所以在這裡輸入上衣的圖片;另一組代表的就是下半身。

下面兩個 attn_mask 上傳同一張全身圖,然後我們來畫一下遮罩。

在圖片上按滑鼠右鍵,找到 Open in MaskEditor 點開,這是 comfy 自己的超陽春遮罩繪製工具。

raw-image

Thickness 是筆刷大小,Opacity 是透明度,調整的話你可以比較清楚看到自己到底遮住哪裡了,啊這個 Color 吼,它只有三個不同的模式,你選一個看得順眼的就好,遮罩的顏色並不重要,重要的只有區域。

比較需要注意的是,它沒有橡皮擦,也不能 ctrl+z,畫歪了你就 clear 敲下去重畫一遍吧。

我們現在使用的是 t2i 的遮罩,不是 i2i 的 inpaint,畫這個的目的是告訴 AI,告訴你的模型,說我提供的這個服裝參考圖,只要作用在這個範圍以內。
它也同時會讓 AI 理解上下半身的位置,所以前面才說,這個全身圖只是墊在底下,用來參考相對位置的。
你在畫的時候,更需要著重的是你的服裝參考圖本身,是甚麼樣的服裝,這些服裝是甚麼形狀。

畫完之後,點 save to node

然後,去把下半身那張也畫了。

raw-image

你可以看一下我這邊的畫面,全身圖上面的長褲,完全不用管它,我就是把裙子的形狀,糊在它應該大概要出現的位置上。這樣就好,不需要畫得很細緻。


接下來我們來調整參數。

raw-image

兩個 unified loader 我們都選 PLUS (high strength) 這個 preset。當然你可以試試看調成別的,就,取決於你想要什麼效果,但我建議就用這個。

然後呢,在 ipadapter advanced 裡面,你的權重,注意,權重都最好,超過 1.5。你的參考服裝細節越複雜,建議權重就設越高一點點,如果是很簡單很常見的服裝,可以設低一點,AI 應該也能夠理解。
像我這邊準備的這個裙子,樣子比較特別,它不是一個四方形的皮裙,所以你會看到我遮罩畫的也是大概這樣的形狀,然後在權重的部分設得稍微高一點。

weight_type 選擇 ease in,然後這個參考作用結束的地方 end_at,設在 0.8 左右,根據結果你可以做微調。

那剩下的其他參數,你可以調整來試試看.但也可以不用去動。

raw-image

最後我們看一下熟悉的部分,Ksampler 的 seed 為了控制變量,我們一樣使用 fix seed,數字隨便給,你開心打甚麼都行。

步數可以設低,因為還在調整的階段嘛,不需要說每次都等它 run 個 2-30 步來浪費時間。

cfg 請設置在 2 左右,給 ipadapter 更多控制畫面的發揮空間。

然後把你的 checkpoint 啊,調度採樣器啊,都選好了之後,稍微寫一下你的提示詞,可以不用寫得很詳細喔,我這邊只寫了全身、金髮、襯衫、皮裙。

搞定,可以來跑看看了。


你可以在後面,像我們之前講過的那樣,去接 upscale,或是接 controlnet,來得到更好的結果。

也可以在遮罩處理的部分去作一些更進階的處理。




結語

raw-image

最後,如果你還不太會構思自己的工作流程,IP-Adapter 的作者在這個擴展裡面,也附上了一些不同的應用範例,你可以從 comfy 的 custom_nodes 資料夾裡,找到 ipadapter plus 的資料夾,然後有一個 examples 資料夾,裡面就是開發者提供的範例工作流程。

(根據你comfy安裝的位置哈....)
C:\ComfyUI\custom_nodes\ComfyUI_IPAdapter_plus\examples

我自己用起來,是感覺它在臉部提取上,比以前那些換臉的 roop 或 picsi,還要好用非常多,對臉部特徵提取的能力很強,生成出來的結果也沒有之前看起來那麼僵硬。

不過還是那個老問題,就是西方人比亞洲人的效果會更好一些。這是因為他最底層的那個模型 insightface 在訓練的時候,白人的臉部樣本數量更多,這個真的是沒辦法。

它對藝術風格的提取成果也很不錯,就是平面的二次元內容,不像之前的 roop 是不適合應用在寫實風格以外的地方。
終於可以靠它來實現人物創作時的特徵統一,在你想要構思原創角色的時候,應該可以幫上很多忙。


好的,那麼今天沒有小技巧時間。🤣


希望這個教學有幫助到你,有任何問題都可以在影片或文章下方留言,也歡迎跟我討論你對 IP-Adapter 的使用心得,把文章分享給你對 AI 算圖感興趣的朋友!

感謝各位收看,掰掰。

Youtube頻道[你風哥 Wind Bro Draw]上各式生成AI工具教學及介紹影片的文字版,包含使用方法與小技巧,完整的影片文案重新梳理,或是實用小筆記,還有進階使用者的理論基礎部分。工具目前包含ComfyUI、Leonardo.Ai、Picsi.Ai、Pika Labs……等,緩慢新增中。
留言0
查看全部
發表第一個留言支持創作者!
本篇文章將介紹 AI 算圖高級教學系列中的第一期,重點是使用效果顯著、簡單易用的 IP-Adapter 圖像提示適配器。最齊全的各種安裝方式、完整的新手包交包會安裝流程、還有 ComfyUI 小技巧。
AI 生成圖像最重要的條件之一是提示詞。本篇文章介紹了提示詞的基本概念,並分享了從零開始學習寫圖像生成提示詞的心得,重點著重在基本架構跟新手上路的方向。
關於 SORA 技術原理的圖像式解說,內容從通用型人工智慧到生成運算的原理以及相關的技術研究成果。 提供了使用生成運算方式的 Diffusion Transformer 介紹和進階閱讀的指路。分享 AI 研究領域的開放性和合作精神,以及對視覺產業可能帶來的影響。
ComfyUI教學第二階段之[Upscale&SDXL],本篇介紹 upscale 與 SDXL 的基本架構,包含相關控制項的調整、模型的選擇以及高級功能的使用。這個階段一共會分成三部影片、三篇文字版。
詳解 comfy 官方在 12 月 19 日公佈的更新內容,包括一步到位模型、前端改進、幾個新模型、技術支持、專注強化模式、更好的基礎模型等功能更新。
ComfyUI教學第二階段之[使用ControlNet],除了介紹controlnet的使用方法,文末還有comfy在2023年12月的更新公告簡單導讀,帶你高速瀏覽一次更新內容。 這個階段一共會有三部影片、三篇文章。
本篇文章將介紹 AI 算圖高級教學系列中的第一期,重點是使用效果顯著、簡單易用的 IP-Adapter 圖像提示適配器。最齊全的各種安裝方式、完整的新手包交包會安裝流程、還有 ComfyUI 小技巧。
AI 生成圖像最重要的條件之一是提示詞。本篇文章介紹了提示詞的基本概念,並分享了從零開始學習寫圖像生成提示詞的心得,重點著重在基本架構跟新手上路的方向。
關於 SORA 技術原理的圖像式解說,內容從通用型人工智慧到生成運算的原理以及相關的技術研究成果。 提供了使用生成運算方式的 Diffusion Transformer 介紹和進階閱讀的指路。分享 AI 研究領域的開放性和合作精神,以及對視覺產業可能帶來的影響。
ComfyUI教學第二階段之[Upscale&SDXL],本篇介紹 upscale 與 SDXL 的基本架構,包含相關控制項的調整、模型的選擇以及高級功能的使用。這個階段一共會分成三部影片、三篇文字版。
詳解 comfy 官方在 12 月 19 日公佈的更新內容,包括一步到位模型、前端改進、幾個新模型、技術支持、專注強化模式、更好的基礎模型等功能更新。
ComfyUI教學第二階段之[使用ControlNet],除了介紹controlnet的使用方法,文末還有comfy在2023年12月的更新公告簡單導讀,帶你高速瀏覽一次更新內容。 這個階段一共會有三部影片、三篇文章。
你可能也想看
Thumbnail
八十-二十法則提到,在多數生活的現象中,約80%的效果是來自於20%的原因,除了經濟學、學習理論外,這個法則同樣也可以應用在生活中的幸福感上。 我們需要認知到擁有的越多不一定會越快樂,反而有可能會因為無法專注在少數事物上而產生空虛、迷茫的感覺。「極簡」精神最重要的一點在於放下對於「多」的執著,將有
Thumbnail
1.加權指數與櫃買指數 週五的加權指數在非農就業數據開出來後,雖稍微低於預期,但指數仍向上噴出,在美股開盤後於21500形成一個爆量假突破後急轉直下,就一路收至最低。 台股方面走勢需觀察週一在斷頭潮出現後,週二或週三開始有無買單進場支撐,在沒有明確的反轉訊號形成前,小夥伴盡量不要貿然抄底,或是追空
Thumbnail
近期的「貼文發佈流程 & 版型大更新」功能大家使用了嗎? 新版式整體視覺上「更加凸顯圖片」,為了搭配這次的更新,我們推出首次貼文策展 ❤️ 使用貼文功能並完成這次的指定任務,還有機會獲得富士即可拍,讓你的美好回憶都可以用即可拍珍藏!
Thumbnail
這篇要搭建一個同時生成寫實照片跟動漫風格圖片的工作流,還可以幫線稿上色。
Thumbnail
這篇要使用IPAdapter搭配遮罩來進行特殊的構圖方式。
Thumbnail
接續著前篇,接著我要使用圖生圖的方式去達成多人構圖的目的,本篇會使用幾種圖生圖的工作流去測試。
Thumbnail
AI生成圖片並非完全可控,所以需要很多額外手段去控制,這篇要來試試幾個方法讓生成的圖片更加可控。
Thumbnail
八十-二十法則提到,在多數生活的現象中,約80%的效果是來自於20%的原因,除了經濟學、學習理論外,這個法則同樣也可以應用在生活中的幸福感上。 我們需要認知到擁有的越多不一定會越快樂,反而有可能會因為無法專注在少數事物上而產生空虛、迷茫的感覺。「極簡」精神最重要的一點在於放下對於「多」的執著,將有
Thumbnail
1.加權指數與櫃買指數 週五的加權指數在非農就業數據開出來後,雖稍微低於預期,但指數仍向上噴出,在美股開盤後於21500形成一個爆量假突破後急轉直下,就一路收至最低。 台股方面走勢需觀察週一在斷頭潮出現後,週二或週三開始有無買單進場支撐,在沒有明確的反轉訊號形成前,小夥伴盡量不要貿然抄底,或是追空
Thumbnail
近期的「貼文發佈流程 & 版型大更新」功能大家使用了嗎? 新版式整體視覺上「更加凸顯圖片」,為了搭配這次的更新,我們推出首次貼文策展 ❤️ 使用貼文功能並完成這次的指定任務,還有機會獲得富士即可拍,讓你的美好回憶都可以用即可拍珍藏!
Thumbnail
這篇要搭建一個同時生成寫實照片跟動漫風格圖片的工作流,還可以幫線稿上色。
Thumbnail
這篇要使用IPAdapter搭配遮罩來進行特殊的構圖方式。
Thumbnail
接續著前篇,接著我要使用圖生圖的方式去達成多人構圖的目的,本篇會使用幾種圖生圖的工作流去測試。
Thumbnail
AI生成圖片並非完全可控,所以需要很多額外手段去控制,這篇要來試試幾個方法讓生成的圖片更加可控。