AI繪圖-Stable Diffusion 017- 高保真圖像放大?? – StableSR

閱讀時間約 6 分鐘
raw-image

高保真圖像放大??超高清無損?滿滿的細節? – StableSR…….


StableSR 外掛安裝 & 相關模型下載

Step 1 : 安裝StableSR外掛

關於外掛擴充安裝相關,請參考之前文章 : AI繪圖-Stable Diffusion 007- 外掛擴充 Extensions 的安裝、更新、移除與備份

raw-image

Step 2 : 下載模型檔案

StableSR安裝完成後,我們還需要再把運作StableSR所需的Checkpoints模型檔案 & StableSR模組下載放入相應的資料夾裡才能開始使用。

  • Checkpoints模型 (Stable Diffusion V2.1 768 EMA checkpoint (~5.21GB)) :
    從HuggingFace網址下載 : HuggingFace
    檔案下載後放進資料夾路徑 :  …….\models\Stable-diffusion
  • StableSR模組(webui_768v_139.ckpt) :
    從HuggingFace網址下載 : HuggingFace_StableSR Module
    檔案下載後放進資料夾路徑 :  …….\extensions\sd-webui-stablesr\models

 

Step 3 : 下載官方建議搭配使用的其它外掛或是VAE模型(自選,非必要)

 

StableSR 操作介面 & 使用設定注意事項

完成所有安裝與所需模型檔案下載後,在圖生圖功能頁下的的Script(腳本)處就會看到多出了 StableSR的選項

raw-image
  • SR Model : 這邊就是之前下載的StableSR模組 – webui_768v_139.ckpt
  • Scale Factor : 圖片放大倍數。(啟用StableSR後,其它地方圖片尺寸的設定都會無效)
  • Color Fix : 在使用StableSR與分格繪圖(ex. Tiled Diffusion)時很容易會產色顏色偏移,所以需開啟Color Fix。一共有2個選項(Wavelet、AdaIN),這邊官網建議使用Wavelet算法的效果比較好。
  • Pure Noise : Pure Noise開啟時,SD會無視重繪幅度,最終生成一張更具細節的圖片。Pure Noise沒開啟時,即使重繪幅度設置到最大值1,最後圖片也不會完全達到重繪幅度1原本會有的細節呈度(這樣也許對成像效果反而在美感上更理想),而在Pure Noise沒開啟時,官方建議重繪幅度設置成1。


操作注意/建議事項 :

  1. 注意Checkpoint要選擇指定的大模型 ,而SD VAE雖然並不一定要用官網提供的,但既然官網有另提供,還選擇官網推薦的來用。
  2. 圖生圖的採樣方法(Sampling method)建議使用 : Euler a,  CFG Scale=7, 採樣步數(Sampling steps) >= 20
  3. 官網實測建議,加上Negative prompts有助於成像品質(ex. 3d, cartoon, anime, sketches, (worst quality:2), (low quality:2)),而正向提示詞(Prompts)的幫助不大,但可能也有些許作用(ex. (masterpiece:2), (best quality:2), (realistic:2),(very clear:2))
  4. 生成的圖片尺寸> 512時,建議搭配使用Tiled Diffusion & VAE,不然成像畫質會變差。(真的會變很差……根本Tiled Diffusion & VAE就是必用的搭配吧?)
    (關於Tiled Diffusion & VAE安裝與使用方法,可參考之前文章 : AI繪圖-Stable Diffusion 016- Tiled Diffusion with Tiled VAE)
    在搭配StableSR使用時,Tiled Diffusion的設定官方建議如下 :
    Method = Mixture of Diffusers :
    Latent tile size = 96, Latent tile overlap = 48
    Latent tile batch size : 愈大愈好,只要不會到爆顯存就行。
    Upscaler處要選擇”none” (因為不需要在這裡放大,放大的作業是會在StableSR處進行)
raw-image

一切設定完成後,就把圖放進圖生圖視窗開始算圖吧~

 

StableSR 圖像放大實測

見鬼了,我已經完全照官網的參數來設置,網上找到的教學也是一樣模一樣的設置,唯一差別就只是我用的是真人寫實照片,比較不是用二次元或是2.5D動畫照片。但說好的”高保真”放大呢?、超高清無損?滿滿的細節?

這個外掛也說Suitable for most images (Realistic or Anime, Photography or….)

唉~算了,都花時間安裝/下載一些要配對的模型檔案了,還是把結果都記錄一下吧,之後再來卸安裝刪除,別浪費空間和增加SD運行的負擔。

512×768 放大4倍 :

raw-image

還只是放大4倍,原以為那2倍就好,一次放大小一點,結果也是沒差多少,就是寫實照片變得很平貼,然後畫面加上滿滿的顆粒狀紋理/artifacts/畫壞的各種小區塊…..。

PS. 512×768 放大4倍,如果沒搭配Tiled Diffusion with tiled VAE的話會長這樣 :

raw-image

 

最後實在好奇,照著大家教學用的二次元/2.5D動漫圖是不是效果就會有差 :

用二次元的圖來試就沒像真人照片效果慘烈,但也沒好到多驚豔的地步,StableSR相對要多一些下載的檔案和設定,結果效果也沒變比較好………..

(下圖對比為原圖768×768放大4倍(3072×3072),有啟用Pure Noise效細節效果會比沒啟用Denoising設置1的更好一些)

raw-image

 

好了,StableSR這個外掛全用官網建議的參數設定就問題一堆,我也懶得再多花時間去做更多的參數調整測試了。之後如果有人有試用出更好的效果,可以的話,再麻煩好心跟我說一聲到底是哪裡出問題了~~~

記錄店小二建立網賺被動收入歷程、自我學習成長以及各類財富自由資訊的分享專區。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
由於現有顯卡性能限制,想要在圖生圖裡重繪放大一張圖到4k以上的尺寸就得要借用各種分格繪圖再重拼接成大圖的方式,無法一次生成。之前試過大家很推崇的Ultimate SD upscale,但對於我要重繪放大的”真人寫實照片”類型的圖來說,一直出現各種問題........
關於Tile模型,在網路上普遍的教學說法就是它可以”增加畫面細節”、”高清修復放大”,有多神多好用,用了它會讓原圖畫面變更細緻/精緻….等等。但一開始看了很多Youtube上對於tile的教學,我整個印象就是沒能有一個貫通的邏輯性有很明確的指出Tile到底對SD起到的約束/影響是什麼.....
ControlNet的Inpaint主要功能和我們過去圖生圖裡的Inpaint局部重繪大致是一樣的作用,而其中一個預處理器(inpaint_only_lama)還可以產出不錯的背景填充延伸圖(Outpainting)。
ControlNet 官方的其它特殊效果主要有 Shuffle、Tile、Inpaint、IP2P、Reference,其中Tile和Inpaint會花比較多篇幅就之後另外再介紹,這篇就先來看Shuffle & IP2P & Reference這三種ControlNet成像效果。 Shuffl
語義分割(Semantic Segmentation)指的就是針對畫面中每個像素點進行辨別分類(山、河流、人、車、沙發….等),並將同一類型的區域分塊標註成特定顏色。而ControlNet的控制約束裡就有這一項功能。
ControlNet的OpenPose是一開始最主要引起大家關注的一項約束類型。透過提取出原圖中人物的動作姿勢骨架圖,讓我們可以更精準地做到對成像人物姿勢的掌控,即使是一些光靠文字描述也形容不出的動作姿勢,也能輕易實現。 OpenPose 預處理器 & 實例 OpenPose目前的預處理器有
由於現有顯卡性能限制,想要在圖生圖裡重繪放大一張圖到4k以上的尺寸就得要借用各種分格繪圖再重拼接成大圖的方式,無法一次生成。之前試過大家很推崇的Ultimate SD upscale,但對於我要重繪放大的”真人寫實照片”類型的圖來說,一直出現各種問題........
關於Tile模型,在網路上普遍的教學說法就是它可以”增加畫面細節”、”高清修復放大”,有多神多好用,用了它會讓原圖畫面變更細緻/精緻….等等。但一開始看了很多Youtube上對於tile的教學,我整個印象就是沒能有一個貫通的邏輯性有很明確的指出Tile到底對SD起到的約束/影響是什麼.....
ControlNet的Inpaint主要功能和我們過去圖生圖裡的Inpaint局部重繪大致是一樣的作用,而其中一個預處理器(inpaint_only_lama)還可以產出不錯的背景填充延伸圖(Outpainting)。
ControlNet 官方的其它特殊效果主要有 Shuffle、Tile、Inpaint、IP2P、Reference,其中Tile和Inpaint會花比較多篇幅就之後另外再介紹,這篇就先來看Shuffle & IP2P & Reference這三種ControlNet成像效果。 Shuffl
語義分割(Semantic Segmentation)指的就是針對畫面中每個像素點進行辨別分類(山、河流、人、車、沙發….等),並將同一類型的區域分塊標註成特定顏色。而ControlNet的控制約束裡就有這一項功能。
ControlNet的OpenPose是一開始最主要引起大家關注的一項約束類型。透過提取出原圖中人物的動作姿勢骨架圖,讓我們可以更精準地做到對成像人物姿勢的掌控,即使是一些光靠文字描述也形容不出的動作姿勢,也能輕易實現。 OpenPose 預處理器 & 實例 OpenPose目前的預處理器有
你可能也想看
Google News 追蹤
Thumbnail
這個秋,Chill 嗨嗨!穿搭美美去賞楓,裝備款款去露營⋯⋯你的秋天怎麼過?秋日 To Do List 等你分享! 秋季全站徵文,我們準備了五個創作主題,參賽還有機會獲得「火烤兩用鍋」,一起來看看如何參加吧~
Thumbnail
11/20日NVDA即將公布最新一期的財報, 今天Sell Side的分析師, 開始調高目標價, 市場的股價也開始反應, 未來一週NVDA將重新回到美股市場的焦點, 今天我們要分析NVDA Sell Side怎麼看待這次NVDA的財報預測, 以及實際上Buy Side的倉位及操作, 從
Thumbnail
Hi 大家好,我是Ethan😊 相近大家都知道保濕是皮膚保養中最基本,也是最重要的一步。無論是在畫室裡長時間對著畫布,還是在旅途中面對各種氣候變化,保持皮膚的水分平衡對我來說至關重要。保濕化妝水不僅能迅速為皮膚補水,還能提升後續保養品的吸收效率。 曾經,我的保養程序簡單到只包括清潔和隨意上乳液
Thumbnail
隨著AI繪圖工具的興起,許多人擔心這些技術會取代插畫師和分鏡師。然而,專業藝術家所需的創作時間遠超過非藝術從業者的預期,且AI模型難以創造全新的、具體的作品。即使AI不斷進步,結合AI技術的藝術家仍將擁有優勢。因此,儘管AI可產生吸引人的圖像,但在滿足商業需求方面仍有其侷限性。
Thumbnail
AI繪圖的應用範圍 AI繪圖運用範圍非常廣泛,涵蓋了許多不同的產業。以下是一些主要的應用領域: 1.視覺設計: AI繪圖工具可以用來創作品牌標識、商品包裝設計、廣告圖像等,提升設計效率和創意。 2.藝術創作: 許多藝術家使用AI來創作獨特的藝術作品,開啟了新的創作領域。 3.遊戲開發:
Thumbnail
這兩年的AI繪圖技術突飛猛進,強大到設計師和藝術家們以及新聞媒體天天都在討論。我今年6月也在松菸受邀開講座,主題是「成為和AI共存的未來人才」。 不過今天我想和大家分享AI在設計師與業主心目中的地位。 我將用一包薯條的故事來比喻AI繪圖在設計師與客戶心中是何種無可避免的存在。 首先,AI就像是
Thumbnail
AI繪圖技法: 有很多種,以下是一些常見的技法和工具: 1.文本到圖像生成: 這種技法使用AI將文字描述轉換成圖像。常見的工具包括Bing、Copolit 、Stable Diffusion和MidJourney。可以選一款自己習慣的創作軟體去操作與熟悉。 2.照片轉換: AI可以將照
Thumbnail
隨著人工智能技術的發展,AI 繪圖已經變得常見。Fast Stable Diffusion XL on TPUv5e 是在 Hugging Face 平臺上建立的演示模型,使用 TPU v5e 運行 SDXL 模型,大幅提高了圖像生成速度,生成一張 1024x1024 圖像只需約 10 秒。
Thumbnail
中二病少女這次去了外星球,化身複製人大軍,身穿帝國的暴風兵裝備,這次一樣用realistic fantasy模型,再搭配其他的(你知道的專作瑟瑟圖的那種模型)試試看效果,去呈現荒涼外星球的戰鬥。但星際大戰的光劍始終都很怪很可笑,等下可以看。 這次表情沒下提示詞連笑都不笑,同伴倒下也呈現呆滯狀,表現的
Thumbnail
tensor.art是一個很新的AI繪圖網站,目前還沒看到有什麼廣告或是業配,目前僅在Stable Diffusion 台灣社群v2社團看到一兩篇廣告跟介紹而已。 目前還沒有具體的營利模式,每天有100個繪圖點可以畫100張圖,但也因為還沒有營利模式,所以就算你想花錢買點數也沒得買。
Thumbnail
這篇文章講解在stable diffusion webui上安裝SDXL。 在stable diffusion webui上使用SDXL的步驟不難,比較要注意的是SDXL的幾個重點差異,你要先依這個差異來評估自己是否要升級,以免白忙一場。
Thumbnail
在我們上一篇文章中,提到了生成AI Art QR Code的方法。今天這一篇中我們要實戰另一種生成AI QR Code的方法。上一篇的方法需要由經由 X/Y/Z測試去獲得最佳的參數,且套用不同的Model/Lora都需要去找最佳的甜蜜點,這樣難免比較累一點,今天我會介紹一個方式,是相對比較穩定的做法
Thumbnail
  已經玩SD好一陣子的人應該已經發現,很多名字帶有「Mix」且比較有名的checkpoint模型基本上就是在互相「抄來抄去」,而且在女角方面很多只使用了極少的人物重點訓練,導致算出來的臉常常「都長一個樣」。   那麼,該怎麼辦呢?
Thumbnail
這個秋,Chill 嗨嗨!穿搭美美去賞楓,裝備款款去露營⋯⋯你的秋天怎麼過?秋日 To Do List 等你分享! 秋季全站徵文,我們準備了五個創作主題,參賽還有機會獲得「火烤兩用鍋」,一起來看看如何參加吧~
Thumbnail
11/20日NVDA即將公布最新一期的財報, 今天Sell Side的分析師, 開始調高目標價, 市場的股價也開始反應, 未來一週NVDA將重新回到美股市場的焦點, 今天我們要分析NVDA Sell Side怎麼看待這次NVDA的財報預測, 以及實際上Buy Side的倉位及操作, 從
Thumbnail
Hi 大家好,我是Ethan😊 相近大家都知道保濕是皮膚保養中最基本,也是最重要的一步。無論是在畫室裡長時間對著畫布,還是在旅途中面對各種氣候變化,保持皮膚的水分平衡對我來說至關重要。保濕化妝水不僅能迅速為皮膚補水,還能提升後續保養品的吸收效率。 曾經,我的保養程序簡單到只包括清潔和隨意上乳液
Thumbnail
隨著AI繪圖工具的興起,許多人擔心這些技術會取代插畫師和分鏡師。然而,專業藝術家所需的創作時間遠超過非藝術從業者的預期,且AI模型難以創造全新的、具體的作品。即使AI不斷進步,結合AI技術的藝術家仍將擁有優勢。因此,儘管AI可產生吸引人的圖像,但在滿足商業需求方面仍有其侷限性。
Thumbnail
AI繪圖的應用範圍 AI繪圖運用範圍非常廣泛,涵蓋了許多不同的產業。以下是一些主要的應用領域: 1.視覺設計: AI繪圖工具可以用來創作品牌標識、商品包裝設計、廣告圖像等,提升設計效率和創意。 2.藝術創作: 許多藝術家使用AI來創作獨特的藝術作品,開啟了新的創作領域。 3.遊戲開發:
Thumbnail
這兩年的AI繪圖技術突飛猛進,強大到設計師和藝術家們以及新聞媒體天天都在討論。我今年6月也在松菸受邀開講座,主題是「成為和AI共存的未來人才」。 不過今天我想和大家分享AI在設計師與業主心目中的地位。 我將用一包薯條的故事來比喻AI繪圖在設計師與客戶心中是何種無可避免的存在。 首先,AI就像是
Thumbnail
AI繪圖技法: 有很多種,以下是一些常見的技法和工具: 1.文本到圖像生成: 這種技法使用AI將文字描述轉換成圖像。常見的工具包括Bing、Copolit 、Stable Diffusion和MidJourney。可以選一款自己習慣的創作軟體去操作與熟悉。 2.照片轉換: AI可以將照
Thumbnail
隨著人工智能技術的發展,AI 繪圖已經變得常見。Fast Stable Diffusion XL on TPUv5e 是在 Hugging Face 平臺上建立的演示模型,使用 TPU v5e 運行 SDXL 模型,大幅提高了圖像生成速度,生成一張 1024x1024 圖像只需約 10 秒。
Thumbnail
中二病少女這次去了外星球,化身複製人大軍,身穿帝國的暴風兵裝備,這次一樣用realistic fantasy模型,再搭配其他的(你知道的專作瑟瑟圖的那種模型)試試看效果,去呈現荒涼外星球的戰鬥。但星際大戰的光劍始終都很怪很可笑,等下可以看。 這次表情沒下提示詞連笑都不笑,同伴倒下也呈現呆滯狀,表現的
Thumbnail
tensor.art是一個很新的AI繪圖網站,目前還沒看到有什麼廣告或是業配,目前僅在Stable Diffusion 台灣社群v2社團看到一兩篇廣告跟介紹而已。 目前還沒有具體的營利模式,每天有100個繪圖點可以畫100張圖,但也因為還沒有營利模式,所以就算你想花錢買點數也沒得買。
Thumbnail
這篇文章講解在stable diffusion webui上安裝SDXL。 在stable diffusion webui上使用SDXL的步驟不難,比較要注意的是SDXL的幾個重點差異,你要先依這個差異來評估自己是否要升級,以免白忙一場。
Thumbnail
在我們上一篇文章中,提到了生成AI Art QR Code的方法。今天這一篇中我們要實戰另一種生成AI QR Code的方法。上一篇的方法需要由經由 X/Y/Z測試去獲得最佳的參數,且套用不同的Model/Lora都需要去找最佳的甜蜜點,這樣難免比較累一點,今天我會介紹一個方式,是相對比較穩定的做法
Thumbnail
  已經玩SD好一陣子的人應該已經發現,很多名字帶有「Mix」且比較有名的checkpoint模型基本上就是在互相「抄來抄去」,而且在女角方面很多只使用了極少的人物重點訓練,導致算出來的臉常常「都長一個樣」。   那麼,該怎麼辦呢?