AI繪圖-實測:比較目前20種採樣方式的速度與圖片生成結果(stable diffusion webui)

閱讀時間約 10 分鐘

前言:
這篇主要是比較目前在stable diffusion webui下的20種採樣方式的圖片生成速度與生成結果比較。此處所說的採樣即是Sampling method,也有的會翻成取樣方法。保險起見,給個新手提示,採樣方式的選單位置如下圖所示,這是常用功能,理論上應該大家都知道它是啥:
目前採樣方式是20種,以後有可能隨著版本更新再增加,若到時stable diffusion webui還是熱門工具並且我還心有餘力的話,我會再對此篇文章隨時更新。
如果你的stable diffusion webui的採樣方式比我列的少,有可能是你還沒有更新版本,記得去更新,最近新增的採樣方式UniPC我覺得還算不錯。
每個人的軟硬體環境都不同,就算你跟我用同樣的顯卡速度也未必會跟我一模一樣,所以在這篇內容中要關注的是各採樣方法間的相對速度,而不是實際秒數。

測試環境:

我的顯卡是NVIDIA RTX 3080 10G,生成模型統一採用Chilloutmix-Ni,
採樣步數(Sampling steps)一律設成30步,圖片size設為800*800,
並且不額外使用其它的ControlNet與Lora等影響生圖速度的套件。
僅單純的用內建功能使用同一組prompt隨機生圖,一次生4張。
並且生圖過程中不會開啟其它軟體或對電腦做其餘操作,以免影響生圖速度。
其餘不太影響生成速度的軟硬體細節我就不再多說了。

測試結果:

想不到方格子這麼狠心,竟然不支援表格,請各位將就一下吧
  1. Euler a,總耗時02:18,平均34.5秒
  2. Euler,總耗時02:12,平均33秒
  3. LMS,總耗時02:13,平均33.25 秒
  4. LMS(增為40步),總耗時03:05,平均46.25秒 (30步時會採樣不足,這步是多測的)
  5. Heun,總耗時04:29,平均67.25秒
  6. DPM2,總耗時04:36,平均69秒
  7. DPM2 a,總耗時04:37,平均69.25秒
  8. DPM++2S a,總耗時04:35,平均68.75秒
  9. DPM++2M,總耗時02:19,平均34.75秒
  10. DPM++SDE,總耗時04:30,平均67.5秒
  11. DPM fast,總耗時02:21,平均35.25秒
  12. DPM fast(增為50步),總耗時03:51,平均57.75秒(30步時會採樣不足,這步是多測的)
  13. DPM adaptive,總耗時05:08,平均77秒
  14. LMS Karras,總耗時02:13,平均33.25秒
  15. DPM2 Karras,總耗時04:23,平均65.75秒
  16. DPM2 a Karras,總耗時04:38,平均69.5秒
  17. DPM++2S a Karras,總耗時04:39,平均69.75秒
  18. DPM++2M Karras,總耗時02:20,平均35秒
  19. DPM++SDE Karras,總耗時04:40,平均70秒
  20. DDIM,總耗時02:25,平均36.25秒
  21. PLMS,總耗時02:42,平均40.5秒
  22. PLMS(增為40步),總耗時03:18,平均49.5秒(30步時會採樣不足,這步是多測的)
  23. UniPC,總耗時02:19,平均34.75秒
有三種採樣方式比較特別,LMS/DPM fast/PLMS,這三種在30步時採樣不足會生出異形圖,必須提高步數才行,這可以理解為,它們在相同基準上,速度不會比別人慢,但它們必要的基礎步數會比別人高
以上是依stable diffusion webui中的介面排序來列,你們可能更想知道的是速度排名。整理如下。

依速度排列:

  1. Euler
  2. LMS
  3. LMS Karras
  4. Euler a
  5. DPM++2M
  6. UniPC
  7. DPM++2M Karras
  8. DPM fast
  9. DDIM
  10. PLMS
  11. DPM2 Karras
  12. Heun
  13. DPM++SDE
  14. DPM++2S a
  15. DPM2
  16. DPM2 a
  17. DPM2 a Karras
  18. DPM++2S a Karras
  19. DPM++SDE Karras
  20. DPM adaptive
但測試時其實是有誤差值存在的,就算是同一種採樣方式,也不會每次跑都是同樣秒數,所以我必須再次強調,重點不是秒數,而是相對的快慢。整體來說可以分成三個段次來理解:

前段班:(平均每張圖3X秒)

  • Euler
  • LMS
  • LMS Karras
  • Euler a
  • DPM++2M
  • UniPC
  • DPM++2M Karras
  • DPM fast
  • DDIM
  • PLMS

後段班:(平均每張圖6X秒)

  • DPM2 Karras
  • Heun
  • DPM++SDE
  • DPM++2S a
  • DPM2
  • DPM2 a
  • DPM2 a Karras
  • DPM++2S a Karras
  • DPM++SDE Karras

放牛班:(平均每張圖7X秒,甚至更久)

  • DPM adaptive

圖片隨機生成結果比較:

這些圖都是使用同樣prompt與同樣設定的生成結果,並且不使用任何套件功能,然而在不使用Lora或其它功能的狀況下,顯然生出來圖的就是目前在AI繪圖圈中爛大街的那張網美臉,沒辦法。
Euler a,總耗時02:18,平均34.5秒
Euler,總耗時02:12,平均33秒
LMS,總耗時02:13,平均33.25 秒
LMS(增為40步),總耗時03:05,平均46.25秒 (30步時會採樣不足,這步是多測的)
Heun,總耗時04:29,平均67.25秒
DPM2,總耗時04:36,平均69秒
DPM2 a,總耗時04:37,平均69.25秒
DPM++2S a,總耗時04:35,平均68.75秒
DPM++2M,總耗時02:19,平均34.75秒
DPM++SDE,總耗時04:30,平均67.5秒
DPM fast,總耗時02:21,平均35.25秒
DPM fast(增為50步),總耗時03:51,平均57.75秒(30步時會採樣不足,這步是多測的)
DPM adaptive,總耗時05:08,平均77秒
LMS Karras,總耗時02:13,平均33.25秒
DPM2 Karras,總耗時04:23,平均65.75秒
DPM2 a Karras,總耗時04:38,平均69.5秒
DPM++2S a Karras,總耗時04:39,平均69.75秒
DPM++2M Karras,總耗時02:20,平均35秒
DPM++SDE Karras,總耗時04:40,平均70秒
DDIM,總耗時02:25,平均36.25秒
PLMS,總耗時02:42,平均40.5秒
PLMS(增為40步),總耗時03:18,平均49.5秒(30步時會採樣不足,這步是多測的)
UniPC,總耗時02:19,平均34.75秒
也許是我眼拙,我看不出有哪個採樣方法可以保證一定特別漂亮或是特別醜,如果在個人審美觀都覺得差不多的情況下,我會選擇速度快的。如果你們覺得有哪個採樣方法特別厲害或特別慘,歡迎留言討論一下。

咒語參考:

有格友留言說想參考原始prompt,用以驗證一下繪圖咒語跟生成圖片的關連性,我補充這裡。
prompt:
1girl, asia face,(colorful dress),young face, blue eyes,lively street, looking at viewer, facing front, ultra high res, (photorealistic:1.4),masterpiece,best quality,official art, (8k, RAW photo:1.2),(portrait:1.4), cinematic lighting ,(solo:1.7), (eyelashes:1.1), (happy:1.21), (depth of field:1.1), lens flare, (chromatic aberration:1.1), (caustics:1.1),full body,delicated,
負面提示詞(negative):
paintings, sketches, fingers, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, (outdoor:1.6), backlight,(ugly:1.331), (duplicate:1.331), (morbid:1.21), (mutilated:1.21), (tranny:1.331), mutated hands, (poorly drawn hands:1.5), blurry, (bad anatomy:1.21), (bad proportions:1.331), extra limbs, (disfigured:1.331), (more than 2 nipples:1.331), (missing arms:1.331), (extra legs:1.331), (fused fingers:1.61051), (too many fingers:1.61051), (unclear eyes:1.331), lowers, bad hands, missing fingers, extra digit, (futa:1.1),bad hands, missing fingers,nipple,nude,sexy,nsfw
為什麼會看到廣告
avatar-img
276會員
90內容數
沙龍自介: 雜文派,舉凡AI介紹、科技新知、廢談網誌、小說動漫通通都寫。雖說如此,但目前以AI與科技類文章為主軸,我也不知道怎麼變這樣的,holy 媽祖。 本人不喜歡看長篇文章,也不擅長寫長篇文章,我的意思是:我的優點是廢話很少,看我一篇文不會花你太多時間。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
因人廢言 的其他內容
今天要講的這個同樣是Stable Diffusion web UI的插件:3D OpenPose Editor。 這個3D OpenPose Editor更好用,整合了更多東西並且同樣是3D視角,連手指控制的功能都被整合進來了。
這篇我要教的一樣是我覺得重要且實用的東西,直接進入重點,先直接讓你們看看Posex是個什麼東西: 以網路上的曝光度來說,看的出來ControlNet這個Stable Diffusion web UI非常火紅,因為它解決了AI繪圖難以控制人物姿勢的問題,而ControlNet的附屬插件OpenPose
ControlNet這個Stable diffusion外掛非常實用,相關教學可算是滿坑滿谷了,我這篇教學主要是會特別說明整個套件其實有很多功能並不實用,你只需要專注在自己真正需要的功能上就好,而我會列一些我自己的測試結果以證明我為什麼說有些功能並不實用。
這一篇是Lora系列文的最後一篇,講一下如何使用Lora,如果你已經懂的使用Lora那可以跳過這一篇。
這邊繼續上一集的內容,進入這一章節時,你應該是已經安裝好stable diffusion webui跟Kohya's GUI了。 這一章就真的要開始準備訓練Lora模型了,步驟有點雜,我拆成四個小步驟來看,這一章節也是最重要的,以後忘了步驟時,也只要回頭來看這一篇就行了。
這次來講一下在stable diffusion webui中如何自己訓練Lora模型。Lora模型的訓練算是有點複雜,我一樣試著儘量講的淺顯易懂,它不難,只是步驟多而已。有了Lora之後你可以儘情的畫出你的偶像,你的夢中情人,你珍藏的動漫人物,還有你所有想畫但畫不出來的人。
今天要講的這個同樣是Stable Diffusion web UI的插件:3D OpenPose Editor。 這個3D OpenPose Editor更好用,整合了更多東西並且同樣是3D視角,連手指控制的功能都被整合進來了。
這篇我要教的一樣是我覺得重要且實用的東西,直接進入重點,先直接讓你們看看Posex是個什麼東西: 以網路上的曝光度來說,看的出來ControlNet這個Stable Diffusion web UI非常火紅,因為它解決了AI繪圖難以控制人物姿勢的問題,而ControlNet的附屬插件OpenPose
ControlNet這個Stable diffusion外掛非常實用,相關教學可算是滿坑滿谷了,我這篇教學主要是會特別說明整個套件其實有很多功能並不實用,你只需要專注在自己真正需要的功能上就好,而我會列一些我自己的測試結果以證明我為什麼說有些功能並不實用。
這一篇是Lora系列文的最後一篇,講一下如何使用Lora,如果你已經懂的使用Lora那可以跳過這一篇。
這邊繼續上一集的內容,進入這一章節時,你應該是已經安裝好stable diffusion webui跟Kohya's GUI了。 這一章就真的要開始準備訓練Lora模型了,步驟有點雜,我拆成四個小步驟來看,這一章節也是最重要的,以後忘了步驟時,也只要回頭來看這一篇就行了。
這次來講一下在stable diffusion webui中如何自己訓練Lora模型。Lora模型的訓練算是有點複雜,我一樣試著儘量講的淺顯易懂,它不難,只是步驟多而已。有了Lora之後你可以儘情的畫出你的偶像,你的夢中情人,你珍藏的動漫人物,還有你所有想畫但畫不出來的人。
你可能也想看
Google News 追蹤
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
Thumbnail
最近在嘗試使用不同的AI生圖方式混合出圖的方式,採用A平台的優點,並用B平台後製的手法截長補短,創造出自己更想要的小說場景,效果不錯,現在以這張圖為例,來講一下我的製作步驟。
Thumbnail
DDPM是最近備受矚目的影像生成模型,本文探討了DDPM中的擴散與降噪過程,以及訓練和採樣演算法。透過高斯分佈的噪音添加和去除,DDPM能夠生成無條件CIFAR10數據集和256x256的LSUN數據集上高質量的樣本圖片。詳細瞭解DDPM的模型架構和訓練原理,請閱讀完整文章。
Thumbnail
生成式AI工具即將邁入三年,除了ChatGPT以外,也進化了許多GenAI工具,如Sora影片生成等。 你知道Stable Diffusion嗎? 從詠唱魔法師Prompts的玩家或職務,AI浪潮持續推進下,SD-WebUI並沒有停滯或被淘汰。 結果告訴了我們一件事情...
本文將介紹batch的定義與其在機器學習中的作用,以及不同batch size 的影響。同時也會講解Momentum動量在機器學習中的重要性。透過本文,您將清楚地瞭解batch、batch size和Momentum動量的概念以及其對機器學習的影響。
Thumbnail
隨著人工智能技術的發展,AI 繪圖已經變得常見。Fast Stable Diffusion XL on TPUv5e 是在 Hugging Face 平臺上建立的演示模型,使用 TPU v5e 運行 SDXL 模型,大幅提高了圖像生成速度,生成一張 1024x1024 圖像只需約 10 秒。
Thumbnail
這篇要介紹AI生成影片的兩個方式:SVD 跟 AnimateDiff。
Thumbnail
Tensor Art 使用 Stable Diffusion 的各種模型,也能使用ControlNet 和 LoRA功能,根據使用者的輸入來文生圖、圖生圖,生成各種風格的高質量圖像,包括人像、動人的風景、創意的抽象畫等。
Thumbnail
Stable Diffusion Online是網頁版的Stable Diffusion AI圖像生成工具,省去了繁瑣的安裝和設定步驟,可以無限生成圖片,且不用註冊就可以免費使用,更棒的是還可以商業使用,為使用者提供更便捷的圖像生成體驗。
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
Thumbnail
最近在嘗試使用不同的AI生圖方式混合出圖的方式,採用A平台的優點,並用B平台後製的手法截長補短,創造出自己更想要的小說場景,效果不錯,現在以這張圖為例,來講一下我的製作步驟。
Thumbnail
DDPM是最近備受矚目的影像生成模型,本文探討了DDPM中的擴散與降噪過程,以及訓練和採樣演算法。透過高斯分佈的噪音添加和去除,DDPM能夠生成無條件CIFAR10數據集和256x256的LSUN數據集上高質量的樣本圖片。詳細瞭解DDPM的模型架構和訓練原理,請閱讀完整文章。
Thumbnail
生成式AI工具即將邁入三年,除了ChatGPT以外,也進化了許多GenAI工具,如Sora影片生成等。 你知道Stable Diffusion嗎? 從詠唱魔法師Prompts的玩家或職務,AI浪潮持續推進下,SD-WebUI並沒有停滯或被淘汰。 結果告訴了我們一件事情...
本文將介紹batch的定義與其在機器學習中的作用,以及不同batch size 的影響。同時也會講解Momentum動量在機器學習中的重要性。透過本文,您將清楚地瞭解batch、batch size和Momentum動量的概念以及其對機器學習的影響。
Thumbnail
隨著人工智能技術的發展,AI 繪圖已經變得常見。Fast Stable Diffusion XL on TPUv5e 是在 Hugging Face 平臺上建立的演示模型,使用 TPU v5e 運行 SDXL 模型,大幅提高了圖像生成速度,生成一張 1024x1024 圖像只需約 10 秒。
Thumbnail
這篇要介紹AI生成影片的兩個方式:SVD 跟 AnimateDiff。
Thumbnail
Tensor Art 使用 Stable Diffusion 的各種模型,也能使用ControlNet 和 LoRA功能,根據使用者的輸入來文生圖、圖生圖,生成各種風格的高質量圖像,包括人像、動人的風景、創意的抽象畫等。
Thumbnail
Stable Diffusion Online是網頁版的Stable Diffusion AI圖像生成工具,省去了繁瑣的安裝和設定步驟,可以無限生成圖片,且不用註冊就可以免費使用,更棒的是還可以商業使用,為使用者提供更便捷的圖像生成體驗。