AI繪圖-有關stable diffusion webui的五個冷知識

AI繪圖-有關stable diffusion webui的五個冷知識

更新於 發佈於 閱讀時間約 4 分鐘

以下講一些有關stable diffusion webui的幾個小操作,都不難,也都很實用,也許其實你早就知道了,這些都不是什麼驚奇的事,但我發現似乎並不是所有人都知道這些事。

這些真的都是一些雞毛蒜皮的小事,不足以獨立寫成一篇教學文章,所以我就簡單的匯整一下就好。

(冷知識通常是指聽到會覺得新奇但不太有用處的偏門知識,所以我講的這些應該要說是暖知識才對。)

1.自動抓SDW圖片檔的prompt

當你用了一些特定的prompt產出一些好圖後,你會特地把那些prompt存成文字紀錄下來嗎?或是用使用SDW內建的PNG Info功能去抽取圖片的prompt內容?

其實只要把圖片檔用滑鼠拖曳到prompt框後就會自動還原出所有繪圖設定。

raw-image

再點擊右側的箭頭按鈕即會自動發配所有設定值,不只是prompt,連細部設定都自動配好了。

raw-image

2.自動抓civitai網站中的圖片prompt

civitai網站中,網友分享的出圖設定,我看有些人都是自己一段一段複製貼上,其實只要點擊這個按鈕即可複製所有繪圖設定。

raw-image

與第一項內容雷同,接著只要把內容貼到SDW的prompt框後再點擊右側的箭頭按鈕即會自動發配所有設定值,不只是prompt,連細部設定都自動配好了。

raw-image

3.移除沒用的外掛(extensions)

之前是不是一時手癢已經裝了很多廢外掛?想要移除?

移除方法其實很簡單,只是大多數的人都將錯就錯懶得移了。

例如我想移除posex這個外掛的話:

raw-image

只要直接到SDW安裝資料夾\extensions之下刪除你不想要的那個外掛資料夾就好:

raw-image

然後再回到外掛清單,點擊Apply and restart UI按鈕或是直接重啟整個SDW即可,這樣被刪掉的外掛就會消失了:

raw-image

4.簡易的繪圖加速方法(xformers)

只要在SDW執行前先啟用xformers就可以加快繪圖速度,聽說不太有負面影響,是個簡單輕鬆零成本的的加速法,也有降低顯卡記憶體(VRAM)耗用的好處。

具體方法是把SDW資料夾下的webui-user.bat這個執行檔用文字開啟,然後在COMMANDLINE_ARGS=的後面加上—xformers即可:

raw-image

我簡單的測試一下,繪製512*768的圖,採樣方式刻意選最慢的DPM adaptive,step設25步。

無開啟xformers的情況下,畫了兩次分別是133秒與135秒:

raw-image

有開啟xformers的情況下,畫了兩次分別是83秒與92秒:

raw-image

據其它網友的測試,比較弱的顯卡進步幅度會較明顯,若顯卡本來就不錯則差異不會太大,但有開就有差。

5.把單機版SDW分享給朋友一起用

想要把你辛苦建立好的電腦版SDW分享給外面的朋友同樂,或是想從自己的手機躺著輕鬆玩嗎?

不需要辛苦的自己架網站,只要在webui-user.bat的執行參數加上—share即可,加入方法與第四項提到的方法一樣:

raw-image

然後啟動SDW後,在指令介面它會給你一組gradio.live結尾的超長亂碼網址,其它人使用這串網址便可以從其它電腦或是手機來連線到你的SDW介面一起畫圖。這組網址的最長時效是72小時。

如果是多人一起畫的情況下,就會有排隊現象,一張畫好才會再接著畫下一張。

raw-image


avatar-img
因人廢言
280會員
90內容數
沙龍自介: 雜文派,舉凡AI介紹、科技新知、廢談網誌、小說動漫通通都寫。雖說如此,但目前以AI與科技類文章為主軸,我也不知道怎麼變這樣的,holy 媽祖。 本人不喜歡看長篇文章,也不擅長寫長篇文章,我的意思是:我的優點是廢話很少,看我一篇文不會花你太多時間。
留言
avatar-img
留言分享你的想法!
因人廢言 的其他內容
之前用20種採樣方式,隨機生成四張圖,好像沒什麼可比性,每一組的生成結果都差不多是有好有壞。如果畫四張不同的圖比不出好壞,那全部畫同一張圖的話呢?這次的測試就是針對這個疑問而進行的。
這篇主要是比較目前在stable diffusion webui下的20種採樣方式的圖片生成速度與生成結果比較。此處所說的採樣即是Sampling method,也有的會翻成取樣方法。
今天要講的這個同樣是Stable Diffusion web UI的插件:3D OpenPose Editor。 這個3D OpenPose Editor更好用,整合了更多東西並且同樣是3D視角,連手指控制的功能都被整合進來了。
這篇我要教的一樣是我覺得重要且實用的東西,直接進入重點,先直接讓你們看看Posex是個什麼東西: 以網路上的曝光度來說,看的出來ControlNet這個Stable Diffusion web UI非常火紅,因為它解決了AI繪圖難以控制人物姿勢的問題,而ControlNet的附屬插件OpenPose
ControlNet這個Stable diffusion外掛非常實用,相關教學可算是滿坑滿谷了,我這篇教學主要是會特別說明整個套件其實有很多功能並不實用,你只需要專注在自己真正需要的功能上就好,而我會列一些我自己的測試結果以證明我為什麼說有些功能並不實用。
這一篇是Lora系列文的最後一篇,講一下如何使用Lora,如果你已經懂的使用Lora那可以跳過這一篇。
之前用20種採樣方式,隨機生成四張圖,好像沒什麼可比性,每一組的生成結果都差不多是有好有壞。如果畫四張不同的圖比不出好壞,那全部畫同一張圖的話呢?這次的測試就是針對這個疑問而進行的。
這篇主要是比較目前在stable diffusion webui下的20種採樣方式的圖片生成速度與生成結果比較。此處所說的採樣即是Sampling method,也有的會翻成取樣方法。
今天要講的這個同樣是Stable Diffusion web UI的插件:3D OpenPose Editor。 這個3D OpenPose Editor更好用,整合了更多東西並且同樣是3D視角,連手指控制的功能都被整合進來了。
這篇我要教的一樣是我覺得重要且實用的東西,直接進入重點,先直接讓你們看看Posex是個什麼東西: 以網路上的曝光度來說,看的出來ControlNet這個Stable Diffusion web UI非常火紅,因為它解決了AI繪圖難以控制人物姿勢的問題,而ControlNet的附屬插件OpenPose
ControlNet這個Stable diffusion外掛非常實用,相關教學可算是滿坑滿谷了,我這篇教學主要是會特別說明整個套件其實有很多功能並不實用,你只需要專注在自己真正需要的功能上就好,而我會列一些我自己的測試結果以證明我為什麼說有些功能並不實用。
這一篇是Lora系列文的最後一篇,講一下如何使用Lora,如果你已經懂的使用Lora那可以跳過這一篇。