AI繪圖 | Stable Diffusion web UI x ControlNet

更新於 發佈於 閱讀時間約 4 分鐘
本文章感謝 sd-webui-controlnet 作者Mikubill協助幫忙&指導
S1.至 https://github.com/Mikubill/sd-webui-controlnet 了解安裝方式 並安裝 python 3.10.6
S3.下載後 點擊 webui.bat
進入目錄
先執行
virtualenv venv
.\venv\Scripts\activate.bat
(PowerShell模式則使用 .\venv\Scripts\activate.ps1 )
進到虛擬機器後再執行 
webui.bat
若無法順利安裝 可參考 環境安裝方式 AI 動漫產生器
pip install virtualenv
pip install omegaconf
GPU的VRAM只有4GB甚至更低,對Stable Diffusion資料夾的webui-user.bat按右鍵,以記事本開啟,加入 set COMMANDLINE_ARGS="--medvram"
set COMMANDLINE_ARGS=--medvram --disable-safe-unpickle --opt-split-attention
RAM小於8GB 加上--disable-safe-unpickle --opt-split-attention
S4.下載 model 至 stable-diffusion-v-1-4-original下載model 並將 ckpt檔案 放至 models/Stable-diffusion 目錄下
完成後如下圖
S5.來到 Extensions選項,使用 Install from URL ,並將 https://github.com/Mikubill/sd-webui-controlnet.git 連接 貼至欄位內後
點擊 Install
S6.來到 Installed 確認並點擊 Apply and restart UI
S6.至https://huggingface.co/lllyasviel/ControlNet/tree/main/models
下載模型
control_sd15_canny.pth(草稿邊緣偵測)
control_sd15_openpose.pth(提取圖中人物骨架)
或者至
ControlNet-modules-safetensors
下載control_openpose-fp16.safetensors
下載後放至
stable-diffusion-webui\extensions\sd-webui-controlnet\models
然後再下載
https://huggingface.co/lllyasviel/ControlNet/resolve/main/annotator/ckpts/body_pose_model.pth

https://huggingface.co/lllyasviel/ControlNet/resolve/main/annotator/ckpts/hand_pose_model.pth
放至
stable-diffusion-webui-master\extensions\sd-webui-controlnet\annotator\openpose
S7.重新啟動 Stable Diffusion web UI
S8.設定骨架
pip install pyre-extensions==0.0.23
pip install -i https://test.pypi.org/simple/ formers==0.0.15.dev376
S10.升級 gradio
pip install opencv-python
pip install gradio==3.16.2
為什麼會看到廣告
avatar-img
40會員
131內容數
獨立遊戲開發紀錄
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
吳佳鑫的沙龍 的其他內容
進入美術的設計階段,主線遊戲開發決定採用3D建模 因此拿出了 Blender 作主要的3D工具 所以...一切重頭學習唄 XD 紀錄一下 最基本的甜甜圈製作過程 所需要用到的指令快捷鍵 基礎快捷鍵-介面操作 G-移動 R-旋轉 S-縮放 ~-叫出投影視角選項 shift+滾輪 - 移動視窗 shif
目前進展順利,完成了行走、對話劇情、背包、道具 簡易的2.5D遊戲功能逐漸成形 接下來就是進入最費時的打磨階段 要開始把場景、人物、NPC還有關卡設計、音樂、音效、動畫等等的元素 慢慢加進來,形成一個完整的遊戲內容了...
昨日教學生spine,今日趕緊回主線開發,把NPC跟對話系統裝上囉~ 接下來就要搞背包系統,一步一步慢慢推進~
紀錄一下,簡單的拆圖後到Spine 架設骨架、調動作
進入第十天,雖然最近因為教書又延遲了進度 不過,近日把劇本的事搞定了 總算是有劇情囉~(撒花 也因為如此,所以將原訂計畫採用2D製作 改成2.5D表現 進入3D的領域 完成了基本的人物行走功能 接下來就是陸續把功能做起來 加油囉~ 看看我是會先餓死 還是遊戲會先出來 ^_____^
神說:「要有光。」就有了光。 神看光是好的,就把光暗分開了。創世記 1:3 今日進入主線開發,首先處理時間系統 想到時間系統,就把遊戲世界的晝夜做出 因此,光影的變化就是第一個要實現的項目 時間的設定就先以薩爾達傳說曠野之息 現實世界一秒等於遊戲時間一分鐘 這樣搞囉~ 光影的設計,則以Univers
進入美術的設計階段,主線遊戲開發決定採用3D建模 因此拿出了 Blender 作主要的3D工具 所以...一切重頭學習唄 XD 紀錄一下 最基本的甜甜圈製作過程 所需要用到的指令快捷鍵 基礎快捷鍵-介面操作 G-移動 R-旋轉 S-縮放 ~-叫出投影視角選項 shift+滾輪 - 移動視窗 shif
目前進展順利,完成了行走、對話劇情、背包、道具 簡易的2.5D遊戲功能逐漸成形 接下來就是進入最費時的打磨階段 要開始把場景、人物、NPC還有關卡設計、音樂、音效、動畫等等的元素 慢慢加進來,形成一個完整的遊戲內容了...
昨日教學生spine,今日趕緊回主線開發,把NPC跟對話系統裝上囉~ 接下來就要搞背包系統,一步一步慢慢推進~
紀錄一下,簡單的拆圖後到Spine 架設骨架、調動作
進入第十天,雖然最近因為教書又延遲了進度 不過,近日把劇本的事搞定了 總算是有劇情囉~(撒花 也因為如此,所以將原訂計畫採用2D製作 改成2.5D表現 進入3D的領域 完成了基本的人物行走功能 接下來就是陸續把功能做起來 加油囉~ 看看我是會先餓死 還是遊戲會先出來 ^_____^
神說:「要有光。」就有了光。 神看光是好的,就把光暗分開了。創世記 1:3 今日進入主線開發,首先處理時間系統 想到時間系統,就把遊戲世界的晝夜做出 因此,光影的變化就是第一個要實現的項目 時間的設定就先以薩爾達傳說曠野之息 現實世界一秒等於遊戲時間一分鐘 這樣搞囉~ 光影的設計,則以Univers
你可能也想看
Google News 追蹤
Thumbnail
/ 大家現在出門買東西還會帶錢包嗎 鴨鴨發現自己好像快一個禮拜沒帶錢包出門 還是可以天天買滿買好回家(? 因此為了記錄手機消費跟各種紅利優惠 鴨鴨都會特別注意銀行的App好不好用! 像是介面設計就是會很在意的地方 很多銀行通常會為了要滿足不同客群 會推出很多App讓使用者下載 每次
Thumbnail
最近有空時就在看如何使用AI作圖的方式製作出有魄力的動作與構圖,恰巧在Civitai這個AI作圖網站上找到了一些有趣的人物姿態,因此發想了一些構圖,依照這些構想做出來的圖效果還算可以接受,因此在這邊記錄一下過程與步驟。
Thumbnail
生成式AI工具即將邁入三年,除了ChatGPT以外,也進化了許多GenAI工具,如Sora影片生成等。 你知道Stable Diffusion嗎? 從詠唱魔法師Prompts的玩家或職務,AI浪潮持續推進下,SD-WebUI並沒有停滯或被淘汰。 結果告訴了我們一件事情...
Thumbnail
Stable Diffusion 的 Mov2Mov 套件是一個非常強大的工具,讓你可以自動化和簡化視頻轉換過程。這個套件特別適合那些希望在視頻中進行面部替換、添加配件或改變角色外觀的人。這裡是關於這個套件的一些詳細介紹: 功能和優點 自動化視頻轉換: Mov2Mov 可以自動化視頻到
Thumbnail
Enhance This HiDiffusion SDXL是一個AI模型,結合HiDiffusion和SDXL兩種圖像生成模型,可以根據既有影像和文字描述生成新的圖像,可用來提高圖像解析度、修復瑕疵、轉換風格和自由創造新的圖像。
Thumbnail
隨著人工智能技術的發展,AI 繪圖已經變得常見。Fast Stable Diffusion XL on TPUv5e 是在 Hugging Face 平臺上建立的演示模型,使用 TPU v5e 運行 SDXL 模型,大幅提高了圖像生成速度,生成一張 1024x1024 圖像只需約 10 秒。
Thumbnail
這篇要介紹AI生成影片的兩個方式:SVD 跟 AnimateDiff。
Thumbnail
這篇的主要目的是搭建出基本可用的Controlnet工作流。
Thumbnail
Tensor Art 使用 Stable Diffusion 的各種模型,也能使用ControlNet 和 LoRA功能,根據使用者的輸入來文生圖、圖生圖,生成各種風格的高質量圖像,包括人像、動人的風景、創意的抽象畫等。
Thumbnail
Stable Diffusion Online是網頁版的Stable Diffusion AI圖像生成工具,省去了繁瑣的安裝和設定步驟,可以無限生成圖片,且不用註冊就可以免費使用,更棒的是還可以商業使用,為使用者提供更便捷的圖像生成體驗。
Thumbnail
這個地址可以讓我一鍵安裝目前所有的開源AI應用,包括: AI繪圖工具:Stable Diffusion的Web UI和comyUI 視訊換臉工具:Face Fusion 聲音課程工具:RVC和XTDS 記住這個地址,它可以讓你一鍵安裝目前所有的開源AI應用。不用管環境配置需要哪一個,直接點擊
Thumbnail
/ 大家現在出門買東西還會帶錢包嗎 鴨鴨發現自己好像快一個禮拜沒帶錢包出門 還是可以天天買滿買好回家(? 因此為了記錄手機消費跟各種紅利優惠 鴨鴨都會特別注意銀行的App好不好用! 像是介面設計就是會很在意的地方 很多銀行通常會為了要滿足不同客群 會推出很多App讓使用者下載 每次
Thumbnail
最近有空時就在看如何使用AI作圖的方式製作出有魄力的動作與構圖,恰巧在Civitai這個AI作圖網站上找到了一些有趣的人物姿態,因此發想了一些構圖,依照這些構想做出來的圖效果還算可以接受,因此在這邊記錄一下過程與步驟。
Thumbnail
生成式AI工具即將邁入三年,除了ChatGPT以外,也進化了許多GenAI工具,如Sora影片生成等。 你知道Stable Diffusion嗎? 從詠唱魔法師Prompts的玩家或職務,AI浪潮持續推進下,SD-WebUI並沒有停滯或被淘汰。 結果告訴了我們一件事情...
Thumbnail
Stable Diffusion 的 Mov2Mov 套件是一個非常強大的工具,讓你可以自動化和簡化視頻轉換過程。這個套件特別適合那些希望在視頻中進行面部替換、添加配件或改變角色外觀的人。這裡是關於這個套件的一些詳細介紹: 功能和優點 自動化視頻轉換: Mov2Mov 可以自動化視頻到
Thumbnail
Enhance This HiDiffusion SDXL是一個AI模型,結合HiDiffusion和SDXL兩種圖像生成模型,可以根據既有影像和文字描述生成新的圖像,可用來提高圖像解析度、修復瑕疵、轉換風格和自由創造新的圖像。
Thumbnail
隨著人工智能技術的發展,AI 繪圖已經變得常見。Fast Stable Diffusion XL on TPUv5e 是在 Hugging Face 平臺上建立的演示模型,使用 TPU v5e 運行 SDXL 模型,大幅提高了圖像生成速度,生成一張 1024x1024 圖像只需約 10 秒。
Thumbnail
這篇要介紹AI生成影片的兩個方式:SVD 跟 AnimateDiff。
Thumbnail
這篇的主要目的是搭建出基本可用的Controlnet工作流。
Thumbnail
Tensor Art 使用 Stable Diffusion 的各種模型,也能使用ControlNet 和 LoRA功能,根據使用者的輸入來文生圖、圖生圖,生成各種風格的高質量圖像,包括人像、動人的風景、創意的抽象畫等。
Thumbnail
Stable Diffusion Online是網頁版的Stable Diffusion AI圖像生成工具,省去了繁瑣的安裝和設定步驟,可以無限生成圖片,且不用註冊就可以免費使用,更棒的是還可以商業使用,為使用者提供更便捷的圖像生成體驗。
Thumbnail
這個地址可以讓我一鍵安裝目前所有的開源AI應用,包括: AI繪圖工具:Stable Diffusion的Web UI和comyUI 視訊換臉工具:Face Fusion 聲音課程工具:RVC和XTDS 記住這個地址,它可以讓你一鍵安裝目前所有的開源AI應用。不用管環境配置需要哪一個,直接點擊