本文章感謝 sd-webui-controlnet 作者Mikubill協助幫忙&指導
S2.下載 stable-diffusion-webui
S3.下載後 點擊 webui.bat
進入目錄
先執行
virtualenv venv
.\venv\Scripts\activate.bat
(PowerShell模式則使用 .\venv\Scripts\activate.ps1 )
進到虛擬機器後再執行
webui.bat
若無法順利安裝 可參考 環境安裝方式 AI 動漫產生器
pip install virtualenv
pip install omegaconf
GPU的VRAM只有4GB甚至更低,對Stable Diffusion資料夾的webui-user.bat按右鍵,以記事本開啟,加入 set COMMANDLINE_ARGS="--medvram"
set COMMANDLINE_ARGS=--medvram --disable-safe-unpickle --opt-split-attention
RAM小於8GB 加上--disable-safe-unpickle --opt-split-attention

S4.下載 model 至 stable-diffusion-v-1-4-original下載model 並將 ckpt檔案 放至 models/Stable-diffusion 目錄下
完成後如下圖

S5.來到 Extensions選項,使用 Install from URL ,並將 https://github.com/Mikubill/sd-webui-controlnet.git 連接 貼至欄位內後
點擊 Install

S6.來到 Installed 確認並點擊 Apply and restart UI

S6.至https://huggingface.co/lllyasviel/ControlNet/tree/main/models
下載模型
control_sd15_canny.pth(草稿邊緣偵測)
control_sd15_openpose.pth(提取圖中人物骨架)
或者至
ControlNet-modules-safetensors
下載control_openpose-fp16.safetensors
下載後放至
stable-diffusion-webui\extensions\sd-webui-controlnet\models
然後再下載
https://huggingface.co/lllyasviel/ControlNet/resolve/main/annotator/ckpts/body_pose_model.pth
https://huggingface.co/lllyasviel/ControlNet/resolve/main/annotator/ckpts/hand_pose_model.pth
放至
stable-diffusion-webui-master\extensions\sd-webui-controlnet\annotator\openpose
S7.重新啟動 Stable Diffusion web UI

S8.設定骨架

pip install pyre-extensions==0.0.23
pip install -i https://test.pypi.org/simple/ formers==0.0.15.dev376
S10.升級 gradio
pip install opencv-python
pip install gradio==3.16.2