AI繪圖-實測:比較目前20種採樣方式的速度與圖片生成結果(stable diffusion webui)

更新於 發佈於 閱讀時間約 10 分鐘

前言:
這篇主要是比較目前在stable diffusion webui下的20種採樣方式的圖片生成速度與生成結果比較。此處所說的採樣即是Sampling method,也有的會翻成取樣方法。保險起見,給個新手提示,採樣方式的選單位置如下圖所示,這是常用功能,理論上應該大家都知道它是啥:
目前採樣方式是20種,以後有可能隨著版本更新再增加,若到時stable diffusion webui還是熱門工具並且我還心有餘力的話,我會再對此篇文章隨時更新。
如果你的stable diffusion webui的採樣方式比我列的少,有可能是你還沒有更新版本,記得去更新,最近新增的採樣方式UniPC我覺得還算不錯。
每個人的軟硬體環境都不同,就算你跟我用同樣的顯卡速度也未必會跟我一模一樣,所以在這篇內容中要關注的是各採樣方法間的相對速度,而不是實際秒數。

測試環境:

我的顯卡是NVIDIA RTX 3080 10G,生成模型統一採用Chilloutmix-Ni,
採樣步數(Sampling steps)一律設成30步,圖片size設為800*800,
並且不額外使用其它的ControlNet與Lora等影響生圖速度的套件。
僅單純的用內建功能使用同一組prompt隨機生圖,一次生4張。
並且生圖過程中不會開啟其它軟體或對電腦做其餘操作,以免影響生圖速度。
其餘不太影響生成速度的軟硬體細節我就不再多說了。

測試結果:

想不到方格子這麼狠心,竟然不支援表格,請各位將就一下吧
  1. Euler a,總耗時02:18,平均34.5秒
  2. Euler,總耗時02:12,平均33秒
  3. LMS,總耗時02:13,平均33.25 秒
  4. LMS(增為40步),總耗時03:05,平均46.25秒 (30步時會採樣不足,這步是多測的)
  5. Heun,總耗時04:29,平均67.25秒
  6. DPM2,總耗時04:36,平均69秒
  7. DPM2 a,總耗時04:37,平均69.25秒
  8. DPM++2S a,總耗時04:35,平均68.75秒
  9. DPM++2M,總耗時02:19,平均34.75秒
  10. DPM++SDE,總耗時04:30,平均67.5秒
  11. DPM fast,總耗時02:21,平均35.25秒
  12. DPM fast(增為50步),總耗時03:51,平均57.75秒(30步時會採樣不足,這步是多測的)
  13. DPM adaptive,總耗時05:08,平均77秒
  14. LMS Karras,總耗時02:13,平均33.25秒
  15. DPM2 Karras,總耗時04:23,平均65.75秒
  16. DPM2 a Karras,總耗時04:38,平均69.5秒
  17. DPM++2S a Karras,總耗時04:39,平均69.75秒
  18. DPM++2M Karras,總耗時02:20,平均35秒
  19. DPM++SDE Karras,總耗時04:40,平均70秒
  20. DDIM,總耗時02:25,平均36.25秒
  21. PLMS,總耗時02:42,平均40.5秒
  22. PLMS(增為40步),總耗時03:18,平均49.5秒(30步時會採樣不足,這步是多測的)
  23. UniPC,總耗時02:19,平均34.75秒
有三種採樣方式比較特別,LMS/DPM fast/PLMS,這三種在30步時採樣不足會生出異形圖,必須提高步數才行,這可以理解為,它們在相同基準上,速度不會比別人慢,但它們必要的基礎步數會比別人高
以上是依stable diffusion webui中的介面排序來列,你們可能更想知道的是速度排名。整理如下。

依速度排列:

  1. Euler
  2. LMS
  3. LMS Karras
  4. Euler a
  5. DPM++2M
  6. UniPC
  7. DPM++2M Karras
  8. DPM fast
  9. DDIM
  10. PLMS
  11. DPM2 Karras
  12. Heun
  13. DPM++SDE
  14. DPM++2S a
  15. DPM2
  16. DPM2 a
  17. DPM2 a Karras
  18. DPM++2S a Karras
  19. DPM++SDE Karras
  20. DPM adaptive
但測試時其實是有誤差值存在的,就算是同一種採樣方式,也不會每次跑都是同樣秒數,所以我必須再次強調,重點不是秒數,而是相對的快慢。整體來說可以分成三個段次來理解:

前段班:(平均每張圖3X秒)

  • Euler
  • LMS
  • LMS Karras
  • Euler a
  • DPM++2M
  • UniPC
  • DPM++2M Karras
  • DPM fast
  • DDIM
  • PLMS

後段班:(平均每張圖6X秒)

  • DPM2 Karras
  • Heun
  • DPM++SDE
  • DPM++2S a
  • DPM2
  • DPM2 a
  • DPM2 a Karras
  • DPM++2S a Karras
  • DPM++SDE Karras

放牛班:(平均每張圖7X秒,甚至更久)

  • DPM adaptive

圖片隨機生成結果比較:

這些圖都是使用同樣prompt與同樣設定的生成結果,並且不使用任何套件功能,然而在不使用Lora或其它功能的狀況下,顯然生出來圖的就是目前在AI繪圖圈中爛大街的那張網美臉,沒辦法。
Euler a,總耗時02:18,平均34.5秒
Euler,總耗時02:12,平均33秒
LMS,總耗時02:13,平均33.25 秒
LMS(增為40步),總耗時03:05,平均46.25秒 (30步時會採樣不足,這步是多測的)
Heun,總耗時04:29,平均67.25秒
DPM2,總耗時04:36,平均69秒
DPM2 a,總耗時04:37,平均69.25秒
DPM++2S a,總耗時04:35,平均68.75秒
DPM++2M,總耗時02:19,平均34.75秒
DPM++SDE,總耗時04:30,平均67.5秒
DPM fast,總耗時02:21,平均35.25秒
DPM fast(增為50步),總耗時03:51,平均57.75秒(30步時會採樣不足,這步是多測的)
DPM adaptive,總耗時05:08,平均77秒
LMS Karras,總耗時02:13,平均33.25秒
DPM2 Karras,總耗時04:23,平均65.75秒
DPM2 a Karras,總耗時04:38,平均69.5秒
DPM++2S a Karras,總耗時04:39,平均69.75秒
DPM++2M Karras,總耗時02:20,平均35秒
DPM++SDE Karras,總耗時04:40,平均70秒
DDIM,總耗時02:25,平均36.25秒
PLMS,總耗時02:42,平均40.5秒
PLMS(增為40步),總耗時03:18,平均49.5秒(30步時會採樣不足,這步是多測的)
UniPC,總耗時02:19,平均34.75秒
也許是我眼拙,我看不出有哪個採樣方法可以保證一定特別漂亮或是特別醜,如果在個人審美觀都覺得差不多的情況下,我會選擇速度快的。如果你們覺得有哪個採樣方法特別厲害或特別慘,歡迎留言討論一下。

咒語參考:

有格友留言說想參考原始prompt,用以驗證一下繪圖咒語跟生成圖片的關連性,我補充這裡。
prompt:
1girl, asia face,(colorful dress),young face, blue eyes,lively street, looking at viewer, facing front, ultra high res, (photorealistic:1.4),masterpiece,best quality,official art, (8k, RAW photo:1.2),(portrait:1.4), cinematic lighting ,(solo:1.7), (eyelashes:1.1), (happy:1.21), (depth of field:1.1), lens flare, (chromatic aberration:1.1), (caustics:1.1),full body,delicated,
負面提示詞(negative):
paintings, sketches, fingers, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, (outdoor:1.6), backlight,(ugly:1.331), (duplicate:1.331), (morbid:1.21), (mutilated:1.21), (tranny:1.331), mutated hands, (poorly drawn hands:1.5), blurry, (bad anatomy:1.21), (bad proportions:1.331), extra limbs, (disfigured:1.331), (more than 2 nipples:1.331), (missing arms:1.331), (extra legs:1.331), (fused fingers:1.61051), (too many fingers:1.61051), (unclear eyes:1.331), lowers, bad hands, missing fingers, extra digit, (futa:1.1),bad hands, missing fingers,nipple,nude,sexy,nsfw
為什麼會看到廣告
avatar-img
279會員
90內容數
沙龍自介: 雜文派,舉凡AI介紹、科技新知、廢談網誌、小說動漫通通都寫。雖說如此,但目前以AI與科技類文章為主軸,我也不知道怎麼變這樣的,holy 媽祖。 本人不喜歡看長篇文章,也不擅長寫長篇文章,我的意思是:我的優點是廢話很少,看我一篇文不會花你太多時間。
留言
avatar-img
留言分享你的想法!
朱紹凱-avatar-img
2024/09/19
1
我是去年四月才更新桌機硬體3050是8G為了製作VR...當時AI才剛剛看到...東南西北還搞不清楚....這幾天才開始上網學習...發現的確是顯卡問題....40字頭太貴沒鈔票...
1
巴洛克大叔-avatar-img
發文者
2024/09/21
朱紹凱 剛入門的話,可以考慮使用一些網頁版的AI繪圖,現在網頁工具也都很厲害了,不一定非得要全部自行打造
龍阿迪-avatar-img
2023/03/31
1
不支援表格,只好把表格擷取成圖片🤔或是我記得有嵌入這個功能,可以可以設一個google的文件再嵌入,雖然我沒試過,找機會試一下再來分享😆
1
林仕航-avatar-img
2023/04/20
我想請教大叔~我的筆電是MSI CPU i7-11800H/Ram:40g/顯示卡:GTX1650 4G GDDR6,目前用SD跑圖,採樣用DPM++SDE Karras/步數:30/生成2張圖,幾乎都需要40~50分鐘,是不是不太正常? 還是有其他設定沒有注意到? 還是,顯卡太低階?
巴洛克大叔-avatar-img
發文者
2023/04/20
林仕航 確實是顯卡太低階,6G的VRAM算是很基本款的要求了,4G就更克難了。比較救急的方式可以參考 https://vocus.cc/article/6434f318fd89780001bf1d41 我在這邊提到的xformers方法,算是可以立刻生效的加速方法。其次,可以考慮改用google雲端環境去跑,搜尋「colab stable diffusion」會有很多使用教學,雖然在雲端跑有些限制不算方便,但總是比起你目前要等40~50分鐘來的好多了。
陳元冬-avatar-img
2023/04/02
請問可以分享一下咒語嗎?想知道各種取樣方法畫出來的圖符不符合咒語內容。
巴洛克大叔-avatar-img
發文者
2023/04/02
1
陳元冬 好喔,沒問題,我已經直接補充在文章結尾。
1
因人廢言 的其他內容
今天要講的這個同樣是Stable Diffusion web UI的插件:3D OpenPose Editor。 這個3D OpenPose Editor更好用,整合了更多東西並且同樣是3D視角,連手指控制的功能都被整合進來了。
這篇我要教的一樣是我覺得重要且實用的東西,直接進入重點,先直接讓你們看看Posex是個什麼東西: 以網路上的曝光度來說,看的出來ControlNet這個Stable Diffusion web UI非常火紅,因為它解決了AI繪圖難以控制人物姿勢的問題,而ControlNet的附屬插件OpenPose
ControlNet這個Stable diffusion外掛非常實用,相關教學可算是滿坑滿谷了,我這篇教學主要是會特別說明整個套件其實有很多功能並不實用,你只需要專注在自己真正需要的功能上就好,而我會列一些我自己的測試結果以證明我為什麼說有些功能並不實用。
這一篇是Lora系列文的最後一篇,講一下如何使用Lora,如果你已經懂的使用Lora那可以跳過這一篇。
這邊繼續上一集的內容,進入這一章節時,你應該是已經安裝好stable diffusion webui跟Kohya's GUI了。 這一章就真的要開始準備訓練Lora模型了,步驟有點雜,我拆成四個小步驟來看,這一章節也是最重要的,以後忘了步驟時,也只要回頭來看這一篇就行了。
這次來講一下在stable diffusion webui中如何自己訓練Lora模型。Lora模型的訓練算是有點複雜,我一樣試著儘量講的淺顯易懂,它不難,只是步驟多而已。有了Lora之後你可以儘情的畫出你的偶像,你的夢中情人,你珍藏的動漫人物,還有你所有想畫但畫不出來的人。
今天要講的這個同樣是Stable Diffusion web UI的插件:3D OpenPose Editor。 這個3D OpenPose Editor更好用,整合了更多東西並且同樣是3D視角,連手指控制的功能都被整合進來了。
這篇我要教的一樣是我覺得重要且實用的東西,直接進入重點,先直接讓你們看看Posex是個什麼東西: 以網路上的曝光度來說,看的出來ControlNet這個Stable Diffusion web UI非常火紅,因為它解決了AI繪圖難以控制人物姿勢的問題,而ControlNet的附屬插件OpenPose
ControlNet這個Stable diffusion外掛非常實用,相關教學可算是滿坑滿谷了,我這篇教學主要是會特別說明整個套件其實有很多功能並不實用,你只需要專注在自己真正需要的功能上就好,而我會列一些我自己的測試結果以證明我為什麼說有些功能並不實用。
這一篇是Lora系列文的最後一篇,講一下如何使用Lora,如果你已經懂的使用Lora那可以跳過這一篇。
這邊繼續上一集的內容,進入這一章節時,你應該是已經安裝好stable diffusion webui跟Kohya's GUI了。 這一章就真的要開始準備訓練Lora模型了,步驟有點雜,我拆成四個小步驟來看,這一章節也是最重要的,以後忘了步驟時,也只要回頭來看這一篇就行了。
這次來講一下在stable diffusion webui中如何自己訓練Lora模型。Lora模型的訓練算是有點複雜,我一樣試著儘量講的淺顯易懂,它不難,只是步驟多而已。有了Lora之後你可以儘情的畫出你的偶像,你的夢中情人,你珍藏的動漫人物,還有你所有想畫但畫不出來的人。
你可能也想看
Google News 追蹤
Thumbnail
全新 vocus 挑戰活動「方格人氣王」來啦~四大挑戰任你選,留言 / 愛心 / 瀏覽數大 PK,還有新手專屬挑戰!無論你是 vocus 上活躍創作者或剛加入的新手,都有機會被更多人看見,獲得站上版位曝光&豐富獎勵!🏆
Thumbnail
本文探討AI筆記工具的優缺點、選擇建議及未來趨勢,比較NotebookLM、OneNote+Copilot、Notion AI、Obsidian+GPT插件和Palantir Foundry等工具,並強調安全注意事項及個人需求評估的重要性。
Thumbnail
分享使用Wan AI、Kling AI進行Img to Video圖像轉影片的體驗心得,Wan AI生成影片速度慢,需大量嘗試才能得到滿意結果;Kling AI品質好但免費算力有限。作者認為AI繪圖已趨於生活化,方便使用者線上生成圖片,付費可提升品質。
Thumbnail
痛點 學習包含TensorArt在內的SD系繪圖軟體。我一開始遇到的最大的痛點其實不是操作,而是提示詞。特別是在做一些動漫風格角色的時候,要精準的控制髮型是一個很困難的事情。難在哪裡?主要是難在沒有知識。根本講不出「來那個髮型的英文是什麼」。甚至有時候要用中文講,我還是不會表達。 沒想到離開學校
Thumbnail
這篇文章記錄了作者使用AI繪圖工具,嘗試復刻一張在C站看到的圖片過程。 文中詳細描述了原圖的特徵,以及通過調整提示詞、添加LoRA模型等方式,逐步改善生成圖像與原圖差異的步驟。 最終,成功地復刻了圖片的主要元素,並分享了心得體會與相關連結。
Thumbnail
上圖是由 X(Grok) 產生,撇除它現在是免費使用,也可以使用中文...不談,以下為非專業評比⋯ 上圖的提示詞是: realistic photograph), A 20-year-old Asian woman with shoulder-length black hair, dress,
Thumbnail
各種 AI 繪圖網站和工具如今已改變了進入「畫畫」世界的門檻,讓你我都能透過科技,將想像化為一幅畫作。 本文將分享 10 款免費 AI 繪圖軟體推薦,並附上版主自己的實測心得。 我將這 10 款 AI 繪圖軟體、網站,分類為三種。
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
Thumbnail
最近在嘗試使用不同的AI生圖方式混合出圖的方式,採用A平台的優點,並用B平台後製的手法截長補短,創造出自己更想要的小說場景,效果不錯,現在以這張圖為例,來講一下我的製作步驟。
Thumbnail
DDPM是最近備受矚目的影像生成模型,本文探討了DDPM中的擴散與降噪過程,以及訓練和採樣演算法。透過高斯分佈的噪音添加和去除,DDPM能夠生成無條件CIFAR10數據集和256x256的LSUN數據集上高質量的樣本圖片。詳細瞭解DDPM的模型架構和訓練原理,請閱讀完整文章。
Thumbnail
生成式AI工具即將邁入三年,除了ChatGPT以外,也進化了許多GenAI工具,如Sora影片生成等。 你知道Stable Diffusion嗎? 從詠唱魔法師Prompts的玩家或職務,AI浪潮持續推進下,SD-WebUI並沒有停滯或被淘汰。 結果告訴了我們一件事情...
本文將介紹batch的定義與其在機器學習中的作用,以及不同batch size 的影響。同時也會講解Momentum動量在機器學習中的重要性。透過本文,您將清楚地瞭解batch、batch size和Momentum動量的概念以及其對機器學習的影響。
Thumbnail
全新 vocus 挑戰活動「方格人氣王」來啦~四大挑戰任你選,留言 / 愛心 / 瀏覽數大 PK,還有新手專屬挑戰!無論你是 vocus 上活躍創作者或剛加入的新手,都有機會被更多人看見,獲得站上版位曝光&豐富獎勵!🏆
Thumbnail
本文探討AI筆記工具的優缺點、選擇建議及未來趨勢,比較NotebookLM、OneNote+Copilot、Notion AI、Obsidian+GPT插件和Palantir Foundry等工具,並強調安全注意事項及個人需求評估的重要性。
Thumbnail
分享使用Wan AI、Kling AI進行Img to Video圖像轉影片的體驗心得,Wan AI生成影片速度慢,需大量嘗試才能得到滿意結果;Kling AI品質好但免費算力有限。作者認為AI繪圖已趨於生活化,方便使用者線上生成圖片,付費可提升品質。
Thumbnail
痛點 學習包含TensorArt在內的SD系繪圖軟體。我一開始遇到的最大的痛點其實不是操作,而是提示詞。特別是在做一些動漫風格角色的時候,要精準的控制髮型是一個很困難的事情。難在哪裡?主要是難在沒有知識。根本講不出「來那個髮型的英文是什麼」。甚至有時候要用中文講,我還是不會表達。 沒想到離開學校
Thumbnail
這篇文章記錄了作者使用AI繪圖工具,嘗試復刻一張在C站看到的圖片過程。 文中詳細描述了原圖的特徵,以及通過調整提示詞、添加LoRA模型等方式,逐步改善生成圖像與原圖差異的步驟。 最終,成功地復刻了圖片的主要元素,並分享了心得體會與相關連結。
Thumbnail
上圖是由 X(Grok) 產生,撇除它現在是免費使用,也可以使用中文...不談,以下為非專業評比⋯ 上圖的提示詞是: realistic photograph), A 20-year-old Asian woman with shoulder-length black hair, dress,
Thumbnail
各種 AI 繪圖網站和工具如今已改變了進入「畫畫」世界的門檻,讓你我都能透過科技,將想像化為一幅畫作。 本文將分享 10 款免費 AI 繪圖軟體推薦,並附上版主自己的實測心得。 我將這 10 款 AI 繪圖軟體、網站,分類為三種。
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
Thumbnail
最近在嘗試使用不同的AI生圖方式混合出圖的方式,採用A平台的優點,並用B平台後製的手法截長補短,創造出自己更想要的小說場景,效果不錯,現在以這張圖為例,來講一下我的製作步驟。
Thumbnail
DDPM是最近備受矚目的影像生成模型,本文探討了DDPM中的擴散與降噪過程,以及訓練和採樣演算法。透過高斯分佈的噪音添加和去除,DDPM能夠生成無條件CIFAR10數據集和256x256的LSUN數據集上高質量的樣本圖片。詳細瞭解DDPM的模型架構和訓練原理,請閱讀完整文章。
Thumbnail
生成式AI工具即將邁入三年,除了ChatGPT以外,也進化了許多GenAI工具,如Sora影片生成等。 你知道Stable Diffusion嗎? 從詠唱魔法師Prompts的玩家或職務,AI浪潮持續推進下,SD-WebUI並沒有停滯或被淘汰。 結果告訴了我們一件事情...
本文將介紹batch的定義與其在機器學習中的作用,以及不同batch size 的影響。同時也會講解Momentum動量在機器學習中的重要性。透過本文,您將清楚地瞭解batch、batch size和Momentum動量的概念以及其對機器學習的影響。