AI繪圖-實測:比較目前20種採樣方式的速度與圖片生成結果(stable diffusion webui)

閱讀時間約 10 分鐘

前言:
這篇主要是比較目前在stable diffusion webui下的20種採樣方式的圖片生成速度與生成結果比較。此處所說的採樣即是Sampling method,也有的會翻成取樣方法。保險起見,給個新手提示,採樣方式的選單位置如下圖所示,這是常用功能,理論上應該大家都知道它是啥:
目前採樣方式是20種,以後有可能隨著版本更新再增加,若到時stable diffusion webui還是熱門工具並且我還心有餘力的話,我會再對此篇文章隨時更新。
如果你的stable diffusion webui的採樣方式比我列的少,有可能是你還沒有更新版本,記得去更新,最近新增的採樣方式UniPC我覺得還算不錯。
每個人的軟硬體環境都不同,就算你跟我用同樣的顯卡速度也未必會跟我一模一樣,所以在這篇內容中要關注的是各採樣方法間的相對速度,而不是實際秒數。

測試環境:

我的顯卡是NVIDIA RTX 3080 10G,生成模型統一採用Chilloutmix-Ni,
採樣步數(Sampling steps)一律設成30步,圖片size設為800*800,
並且不額外使用其它的ControlNet與Lora等影響生圖速度的套件。
僅單純的用內建功能使用同一組prompt隨機生圖,一次生4張。
並且生圖過程中不會開啟其它軟體或對電腦做其餘操作,以免影響生圖速度。
其餘不太影響生成速度的軟硬體細節我就不再多說了。

測試結果:

想不到方格子這麼狠心,竟然不支援表格,請各位將就一下吧
  1. Euler a,總耗時02:18,平均34.5秒
  2. Euler,總耗時02:12,平均33秒
  3. LMS,總耗時02:13,平均33.25 秒
  4. LMS(增為40步),總耗時03:05,平均46.25秒 (30步時會採樣不足,這步是多測的)
  5. Heun,總耗時04:29,平均67.25秒
  6. DPM2,總耗時04:36,平均69秒
  7. DPM2 a,總耗時04:37,平均69.25秒
  8. DPM++2S a,總耗時04:35,平均68.75秒
  9. DPM++2M,總耗時02:19,平均34.75秒
  10. DPM++SDE,總耗時04:30,平均67.5秒
  11. DPM fast,總耗時02:21,平均35.25秒
  12. DPM fast(增為50步),總耗時03:51,平均57.75秒(30步時會採樣不足,這步是多測的)
  13. DPM adaptive,總耗時05:08,平均77秒
  14. LMS Karras,總耗時02:13,平均33.25秒
  15. DPM2 Karras,總耗時04:23,平均65.75秒
  16. DPM2 a Karras,總耗時04:38,平均69.5秒
  17. DPM++2S a Karras,總耗時04:39,平均69.75秒
  18. DPM++2M Karras,總耗時02:20,平均35秒
  19. DPM++SDE Karras,總耗時04:40,平均70秒
  20. DDIM,總耗時02:25,平均36.25秒
  21. PLMS,總耗時02:42,平均40.5秒
  22. PLMS(增為40步),總耗時03:18,平均49.5秒(30步時會採樣不足,這步是多測的)
  23. UniPC,總耗時02:19,平均34.75秒
有三種採樣方式比較特別,LMS/DPM fast/PLMS,這三種在30步時採樣不足會生出異形圖,必須提高步數才行,這可以理解為,它們在相同基準上,速度不會比別人慢,但它們必要的基礎步數會比別人高
以上是依stable diffusion webui中的介面排序來列,你們可能更想知道的是速度排名。整理如下。

依速度排列:

  1. Euler
  2. LMS
  3. LMS Karras
  4. Euler a
  5. DPM++2M
  6. UniPC
  7. DPM++2M Karras
  8. DPM fast
  9. DDIM
  10. PLMS
  11. DPM2 Karras
  12. Heun
  13. DPM++SDE
  14. DPM++2S a
  15. DPM2
  16. DPM2 a
  17. DPM2 a Karras
  18. DPM++2S a Karras
  19. DPM++SDE Karras
  20. DPM adaptive
但測試時其實是有誤差值存在的,就算是同一種採樣方式,也不會每次跑都是同樣秒數,所以我必須再次強調,重點不是秒數,而是相對的快慢。整體來說可以分成三個段次來理解:

前段班:(平均每張圖3X秒)

  • Euler
  • LMS
  • LMS Karras
  • Euler a
  • DPM++2M
  • UniPC
  • DPM++2M Karras
  • DPM fast
  • DDIM
  • PLMS

後段班:(平均每張圖6X秒)

  • DPM2 Karras
  • Heun
  • DPM++SDE
  • DPM++2S a
  • DPM2
  • DPM2 a
  • DPM2 a Karras
  • DPM++2S a Karras
  • DPM++SDE Karras

放牛班:(平均每張圖7X秒,甚至更久)

  • DPM adaptive

圖片隨機生成結果比較:

這些圖都是使用同樣prompt與同樣設定的生成結果,並且不使用任何套件功能,然而在不使用Lora或其它功能的狀況下,顯然生出來圖的就是目前在AI繪圖圈中爛大街的那張網美臉,沒辦法。
Euler a,總耗時02:18,平均34.5秒
Euler,總耗時02:12,平均33秒
LMS,總耗時02:13,平均33.25 秒
LMS(增為40步),總耗時03:05,平均46.25秒 (30步時會採樣不足,這步是多測的)
Heun,總耗時04:29,平均67.25秒
DPM2,總耗時04:36,平均69秒
DPM2 a,總耗時04:37,平均69.25秒
DPM++2S a,總耗時04:35,平均68.75秒
DPM++2M,總耗時02:19,平均34.75秒
DPM++SDE,總耗時04:30,平均67.5秒
DPM fast,總耗時02:21,平均35.25秒
DPM fast(增為50步),總耗時03:51,平均57.75秒(30步時會採樣不足,這步是多測的)
DPM adaptive,總耗時05:08,平均77秒
LMS Karras,總耗時02:13,平均33.25秒
DPM2 Karras,總耗時04:23,平均65.75秒
DPM2 a Karras,總耗時04:38,平均69.5秒
DPM++2S a Karras,總耗時04:39,平均69.75秒
DPM++2M Karras,總耗時02:20,平均35秒
DPM++SDE Karras,總耗時04:40,平均70秒
DDIM,總耗時02:25,平均36.25秒
PLMS,總耗時02:42,平均40.5秒
PLMS(增為40步),總耗時03:18,平均49.5秒(30步時會採樣不足,這步是多測的)
UniPC,總耗時02:19,平均34.75秒
也許是我眼拙,我看不出有哪個採樣方法可以保證一定特別漂亮或是特別醜,如果在個人審美觀都覺得差不多的情況下,我會選擇速度快的。如果你們覺得有哪個採樣方法特別厲害或特別慘,歡迎留言討論一下。

咒語參考:

有格友留言說想參考原始prompt,用以驗證一下繪圖咒語跟生成圖片的關連性,我補充這裡。
prompt:
1girl, asia face,(colorful dress),young face, blue eyes,lively street, looking at viewer, facing front, ultra high res, (photorealistic:1.4),masterpiece,best quality,official art, (8k, RAW photo:1.2),(portrait:1.4), cinematic lighting ,(solo:1.7), (eyelashes:1.1), (happy:1.21), (depth of field:1.1), lens flare, (chromatic aberration:1.1), (caustics:1.1),full body,delicated,
負面提示詞(negative):
paintings, sketches, fingers, (worst quality:2), (low quality:2), (normal quality:2), lowres, normal quality, ((monochrome)), ((grayscale)), skin spots, acnes, skin blemishes, age spot, (outdoor:1.6), backlight,(ugly:1.331), (duplicate:1.331), (morbid:1.21), (mutilated:1.21), (tranny:1.331), mutated hands, (poorly drawn hands:1.5), blurry, (bad anatomy:1.21), (bad proportions:1.331), extra limbs, (disfigured:1.331), (more than 2 nipples:1.331), (missing arms:1.331), (extra legs:1.331), (fused fingers:1.61051), (too many fingers:1.61051), (unclear eyes:1.331), lowers, bad hands, missing fingers, extra digit, (futa:1.1),bad hands, missing fingers,nipple,nude,sexy,nsfw
為什麼會看到廣告
276會員
90內容數
沙龍自介: 雜文派,舉凡AI介紹、科技新知、廢談網誌、小說動漫通通都寫。雖說如此,但目前以AI與科技類文章為主軸,我也不知道怎麼變這樣的,holy 媽祖。 本人不喜歡看長篇文章,也不擅長寫長篇文章,我的意思是:我的優點是廢話很少,看我一篇文不會花你太多時間。
留言0
查看全部
發表第一個留言支持創作者!
因人廢言 的其他內容
今天要講的這個同樣是Stable Diffusion web UI的插件:3D OpenPose Editor。 這個3D OpenPose Editor更好用,整合了更多東西並且同樣是3D視角,連手指控制的功能都被整合進來了。
這篇我要教的一樣是我覺得重要且實用的東西,直接進入重點,先直接讓你們看看Posex是個什麼東西: 以網路上的曝光度來說,看的出來ControlNet這個Stable Diffusion web UI非常火紅,因為它解決了AI繪圖難以控制人物姿勢的問題,而ControlNet的附屬插件OpenPose
ControlNet這個Stable diffusion外掛非常實用,相關教學可算是滿坑滿谷了,我這篇教學主要是會特別說明整個套件其實有很多功能並不實用,你只需要專注在自己真正需要的功能上就好,而我會列一些我自己的測試結果以證明我為什麼說有些功能並不實用。
這一篇是Lora系列文的最後一篇,講一下如何使用Lora,如果你已經懂的使用Lora那可以跳過這一篇。
這邊繼續上一集的內容,進入這一章節時,你應該是已經安裝好stable diffusion webui跟Kohya's GUI了。 這一章就真的要開始準備訓練Lora模型了,步驟有點雜,我拆成四個小步驟來看,這一章節也是最重要的,以後忘了步驟時,也只要回頭來看這一篇就行了。
這次來講一下在stable diffusion webui中如何自己訓練Lora模型。Lora模型的訓練算是有點複雜,我一樣試著儘量講的淺顯易懂,它不難,只是步驟多而已。有了Lora之後你可以儘情的畫出你的偶像,你的夢中情人,你珍藏的動漫人物,還有你所有想畫但畫不出來的人。
今天要講的這個同樣是Stable Diffusion web UI的插件:3D OpenPose Editor。 這個3D OpenPose Editor更好用,整合了更多東西並且同樣是3D視角,連手指控制的功能都被整合進來了。
這篇我要教的一樣是我覺得重要且實用的東西,直接進入重點,先直接讓你們看看Posex是個什麼東西: 以網路上的曝光度來說,看的出來ControlNet這個Stable Diffusion web UI非常火紅,因為它解決了AI繪圖難以控制人物姿勢的問題,而ControlNet的附屬插件OpenPose
ControlNet這個Stable diffusion外掛非常實用,相關教學可算是滿坑滿谷了,我這篇教學主要是會特別說明整個套件其實有很多功能並不實用,你只需要專注在自己真正需要的功能上就好,而我會列一些我自己的測試結果以證明我為什麼說有些功能並不實用。
這一篇是Lora系列文的最後一篇,講一下如何使用Lora,如果你已經懂的使用Lora那可以跳過這一篇。
這邊繼續上一集的內容,進入這一章節時,你應該是已經安裝好stable diffusion webui跟Kohya's GUI了。 這一章就真的要開始準備訓練Lora模型了,步驟有點雜,我拆成四個小步驟來看,這一章節也是最重要的,以後忘了步驟時,也只要回頭來看這一篇就行了。
這次來講一下在stable diffusion webui中如何自己訓練Lora模型。Lora模型的訓練算是有點複雜,我一樣試著儘量講的淺顯易懂,它不難,只是步驟多而已。有了Lora之後你可以儘情的畫出你的偶像,你的夢中情人,你珍藏的動漫人物,還有你所有想畫但畫不出來的人。
你可能也想看
Google News 追蹤
Thumbnail
這個秋,Chill 嗨嗨!穿搭美美去賞楓,裝備款款去露營⋯⋯你的秋天怎麼過?秋日 To Do List 等你分享! 秋季全站徵文,我們準備了五個創作主題,參賽還有機會獲得「火烤兩用鍋」,一起來看看如何參加吧~
Thumbnail
11/20日NVDA即將公布最新一期的財報, 今天Sell Side的分析師, 開始調高目標價, 市場的股價也開始反應, 未來一週NVDA將重新回到美股市場的焦點, 今天我們要分析NVDA Sell Side怎麼看待這次NVDA的財報預測, 以及實際上Buy Side的倉位及操作, 從
Thumbnail
Hi 大家好,我是Ethan😊 相近大家都知道保濕是皮膚保養中最基本,也是最重要的一步。無論是在畫室裡長時間對著畫布,還是在旅途中面對各種氣候變化,保持皮膚的水分平衡對我來說至關重要。保濕化妝水不僅能迅速為皮膚補水,還能提升後續保養品的吸收效率。 曾經,我的保養程序簡單到只包括清潔和隨意上乳液
Thumbnail
我的第一堂AI繪圖寫作課是一場災難,許多沒有設想到的情形一個接一個冒出來,搞得我焦頭爛額。經過幾堂課以後,我才慢慢掌握訣竅。以下分別就課程規劃、常見地雷及目前使用的練習方法來分享……
Thumbnail
這篇文章精選了三款必備的AI繪圖工具,包括MidJourney、DALL·E和Stable Diffusion。這些工具提供了豐富的創作可能性,讓使用者能夠輕鬆地以AI技術創作各種繪畫作品。
Thumbnail
按慣例,"溫紅一杯"逢節日就要應景來玩個AI。這回耶誕節要玩什麼呢?之前兩篇節日AI文都是用Bing Image Creat作皮卡丘的卡通圖,在這篇文章中,我們試用了三種不同的免費AI繪圖生成器:MyEdit、Stable Diffusion、和Bing Image Creat來看看個別成效如何。
Thumbnail
在這堂課程中,您將學會如何輕鬆地註冊和登入Midjourney的專業平台,了解如何運用AI繪圖技術來創造和生成設計概念;您可以選擇多種設計風格和主題,加入自己的創意思維,Midjourney將迅速為您產出獨特的設計概念圖,當然除了Midjourney,用其他AI生成式設計平台也能完成類似的功能!
Thumbnail
#工業設計師你不用緊張 #設計師的工作從來都不是建3D 百靈果的Ken講說身邊的工業設計師有點緊張,因為現在只要下一些指令給AI,軟體就會幫你畫好3D圖了。但是,真的是不用緊張,工業設計師最核心的價值從來都不是建3D呀! 那只是設計師的英雄旅程的其中一個麻煩的環節而已。 從一開始,我們必須內化客戶或
Thumbnail
各種不同的構圖方式,以及不同特寫程度的角色畫面,再到畫面中人物呈現的數量差別。
Thumbnail
我簡單玩了一下Stable Diffusion 的網頁版,看了一下prompthero裡面的圖片,我對其他軟體的 AI 繪圖大概有一個印象了,我想詢問一下我的讀者希望專題怎麼運作。
Thumbnail
那關於我用完基礎配額這件事、兩手準備、Midjourney 優點、新舊專題介紹。
Thumbnail
這個秋,Chill 嗨嗨!穿搭美美去賞楓,裝備款款去露營⋯⋯你的秋天怎麼過?秋日 To Do List 等你分享! 秋季全站徵文,我們準備了五個創作主題,參賽還有機會獲得「火烤兩用鍋」,一起來看看如何參加吧~
Thumbnail
11/20日NVDA即將公布最新一期的財報, 今天Sell Side的分析師, 開始調高目標價, 市場的股價也開始反應, 未來一週NVDA將重新回到美股市場的焦點, 今天我們要分析NVDA Sell Side怎麼看待這次NVDA的財報預測, 以及實際上Buy Side的倉位及操作, 從
Thumbnail
Hi 大家好,我是Ethan😊 相近大家都知道保濕是皮膚保養中最基本,也是最重要的一步。無論是在畫室裡長時間對著畫布,還是在旅途中面對各種氣候變化,保持皮膚的水分平衡對我來說至關重要。保濕化妝水不僅能迅速為皮膚補水,還能提升後續保養品的吸收效率。 曾經,我的保養程序簡單到只包括清潔和隨意上乳液
Thumbnail
我的第一堂AI繪圖寫作課是一場災難,許多沒有設想到的情形一個接一個冒出來,搞得我焦頭爛額。經過幾堂課以後,我才慢慢掌握訣竅。以下分別就課程規劃、常見地雷及目前使用的練習方法來分享……
Thumbnail
這篇文章精選了三款必備的AI繪圖工具,包括MidJourney、DALL·E和Stable Diffusion。這些工具提供了豐富的創作可能性,讓使用者能夠輕鬆地以AI技術創作各種繪畫作品。
Thumbnail
按慣例,"溫紅一杯"逢節日就要應景來玩個AI。這回耶誕節要玩什麼呢?之前兩篇節日AI文都是用Bing Image Creat作皮卡丘的卡通圖,在這篇文章中,我們試用了三種不同的免費AI繪圖生成器:MyEdit、Stable Diffusion、和Bing Image Creat來看看個別成效如何。
Thumbnail
在這堂課程中,您將學會如何輕鬆地註冊和登入Midjourney的專業平台,了解如何運用AI繪圖技術來創造和生成設計概念;您可以選擇多種設計風格和主題,加入自己的創意思維,Midjourney將迅速為您產出獨特的設計概念圖,當然除了Midjourney,用其他AI生成式設計平台也能完成類似的功能!
Thumbnail
#工業設計師你不用緊張 #設計師的工作從來都不是建3D 百靈果的Ken講說身邊的工業設計師有點緊張,因為現在只要下一些指令給AI,軟體就會幫你畫好3D圖了。但是,真的是不用緊張,工業設計師最核心的價值從來都不是建3D呀! 那只是設計師的英雄旅程的其中一個麻煩的環節而已。 從一開始,我們必須內化客戶或
Thumbnail
各種不同的構圖方式,以及不同特寫程度的角色畫面,再到畫面中人物呈現的數量差別。
Thumbnail
我簡單玩了一下Stable Diffusion 的網頁版,看了一下prompthero裡面的圖片,我對其他軟體的 AI 繪圖大概有一個印象了,我想詢問一下我的讀者希望專題怎麼運作。
Thumbnail
那關於我用完基礎配額這件事、兩手準備、Midjourney 優點、新舊專題介紹。