ComfyUI 研究 - 任意圖像放大

閱讀時間約 1 分鐘

前篇測試如何把提示詞生成的圖像細節提高,這篇要測試的工作流是把任意圖像載入後經由放大模型放大,同時測試放大後重繪看看效果如何。

任意圖像放大工作流

任意圖像放大工作流

這個工作流由以下的Nodes組成:

  • Load Image
  • Load Checkpoint
  • Load VAE
  • Load Upscale Model
  • CLIP Text Encode (Prompt)
  • VAE Encode
  • VAE Decode
  • KSampler
  • Upscale Image (Using Model)
  • Upscale Image
  • Preview Image

概念是將任意圖片放入Load Image節點後,經過放大模型放大,再經過VAE Encode輸入到KSampler後重繪一次,以下是成果比較,由左至右分別是原始圖片>放大後的圖片>放大後重繪的圖片。

raw-image

經過放大模型直接放大出來的圖片細節已經比原始圖片來得豐富,經過重繪的圖片則是受到大模型的影響在畫風上有些微改變,但構圖是相同的。

這個工作流一樣需要注意Denoise的強度,建議設定在0.5。

會建構這個工作流是為了在不知道圖片的提示詞的情形下增加圖片細節,也可以用來處理舊照片。

avatar-img
7.2K會員
81內容數
AI的時代已經來臨
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
Frank Hsu的沙龍 的其他內容
先前藉由加入提示詞控制畫面內容與品質後,發現圖像放大後細節感覺糊糊的,這篇就要來測試幾個增加細節的方法,測試使用的工作流是基於A1111算法的工作流,且使用固定種子。
ComfyUI可以直接將WebUI(A1111算法)生成的圖像拉進介面讀取工作流與提示詞,但是會生成完成不同的圖像,為了讓圖像成果更加接近WebUI(A1111算法)生成的圖像,預設工作流中的部份Nodes需要被替換,且替換完要將一些參數改成A1111。
這篇是以預設工作流為基礎,加入提示詞去控制畫面,目的是控制生成圖像的主題跟提升品質。
這是為了搭建自己想要的工作流而開始的研究工作。
先前藉由加入提示詞控制畫面內容與品質後,發現圖像放大後細節感覺糊糊的,這篇就要來測試幾個增加細節的方法,測試使用的工作流是基於A1111算法的工作流,且使用固定種子。
ComfyUI可以直接將WebUI(A1111算法)生成的圖像拉進介面讀取工作流與提示詞,但是會生成完成不同的圖像,為了讓圖像成果更加接近WebUI(A1111算法)生成的圖像,預設工作流中的部份Nodes需要被替換,且替換完要將一些參數改成A1111。
這篇是以預設工作流為基礎,加入提示詞去控制畫面,目的是控制生成圖像的主題跟提升品質。
這是為了搭建自己想要的工作流而開始的研究工作。
你可能也想看
Google News 追蹤