《M.O.N》書封製作 | Stable Diffusion

《M.O.N》書封製作 | Stable Diffusion

更新於 發佈於 閱讀時間約 3 分鐘
《M.O.N》

《M.O.N》



筆者最近開啟連載的小說《M.O.N》是以AI、仿生人、安寧療護為主軸的科幻短篇,約萬多字。四分之三的內容將限時免費公開,預計於本月發布完畢,期盼格友們一閱。

書封,按照慣例,是自製;也按照慣例,使用了Stable Diffusion (SD)。

設定細節請容筆者略過,僅分享過程概要。因為需使用ControlNet,使用的是1.5版(舊版/非SDXL)的流程。




步驟1:白色長廊

最初是以SD生成只有長廊的圖:

白色長廊

白色長廊

生成方法是先在Google上搜尋「infinite hallway、white hallway、endless hallway、bright hallway」等關鍵字,蒐集數張可用的參考圖片,然後運用ControlNetreference功能來生圖。

上圖是在 Clip Studio Paint 中融合二~三張SD生成的圖後製而成的成果。


步驟2:3D素描人偶

靈感源自格友子不語的生成角色流程:SD很難在沒有提供人物外觀/姿勢參考的情況下,單憑提示詞畫出想要的姿勢與外觀,所以提供SD人物圖像參考非常重要

子不語的方法是使用3D模型調動作的網站/軟體,筆者的方法是使用Clip Studio Paint內建的3D素描人偶功能,搭配透視參考線將3D視角調整成與長廊一致(下輪播圖1/左圖)。

因為原本人偶身上的參考線與地上陰影不利於後續加工,於是將人偶的參考線關閉,並調整光源設定,讓人偶陰影更貼合長廊光源(下輪播圖2/右圖)。


步驟3:粗略手繪

既然都已經使用Clip Studio Paint了,那就手動再做一層加工吧,畢竟步驟2的人偶全身灰茫茫,就這樣直接丟進SD後果不堪設想,於是筆者花了十幾二十分鐘幫人偶穿衣上色:

粗略手繪加工

粗略手繪加工


步驟4:I2I + ControlNet

接著是不少SD使用者已經很熟悉的I2I + ControlNet流程。將步驟3的圖套用以下提示詞,再以高Denoising Strength數值搭配ControlNet的tile_resample生成圖片:

A silver hair woman wearing white doctor robe in a white hallway, 1girl, solo, white clothes, white robe, doctor robe, silver hair, looking back at camera, reflection on the floor, strip lighting, realistic, photorealistic,



步驟5:人工合併元素 + 重複步驟4

一如既往,SD很難一蹴可幾,所以才會有上面步驟4的五張輪播圖。筆者挑選各圖想要的部分在Clip Studio Paint中合併與調整後,繼續重複步驟4兩次,總算生成整體感覺已很接近自己所想的成果:

I2I + tile_resample

I2I + tile_resample

岔個題:

或許有人會想:為何不直接使用仿生人 (Android) 提示詞?

筆者的回答是:因為仿生人的「類型」太多了,而筆者想要的是只有膚色不同於真人的仿生人。如果直接使用Android這個提示詞,SD有高機率生成附有機械零件或「不像人」的角色。

膚色很好手動調整,零件或不像人可就難了。


步驟6:最終人工後製

瞳色、膚色、地上的陰影、光線的色調——等等不滿意之處,就再回Clip Studio Paint中手動調整,最終成果如下:

——順便簽個名。

No. 序 | HP- 章 || 科幻短篇《M.O.N》




avatar-img
︾黑米BR的沙龍︽
82會員
105內容數
筆者探索各種感興趣事物的紀錄。 *副帳非主流政治沙龍《黑米BR不政確》:https://vocus.cc/user/@BRriceP
留言
avatar-img
留言分享你的想法!
︾黑米BR的沙龍︽ 的其他內容
實際上,筆者的Stable Diffusion (Vlad)依舊有些問題,仍不曉得原因是顯卡、Win11、SSD、Vlad或其他,但會先從更新顯卡驅動和重裝Vlad開始找錯。 現況是Vlad運算了二三張圖後就會因為GPU記憶體不夠的問題開始極度緩慢,因此打擊了我創圖的意願。 另一方面,也是對創作
想著有一陣子沒碰SD,就生成了一張繪圖來致敬。
因為最近 Vlad 頻繁出問題,且Img2Img算一張1024x2048、Denoising Strength 0.45 的圖要整整兩個小時,想說暫時先用 A1111 應急。沒想到 A1111 現在也是半斤八兩,沒有 --no-half --no-half-vae u 一定出問題不說,Img2Img
實際上,筆者的Stable Diffusion (Vlad)依舊有些問題,仍不曉得原因是顯卡、Win11、SSD、Vlad或其他,但會先從更新顯卡驅動和重裝Vlad開始找錯。 現況是Vlad運算了二三張圖後就會因為GPU記憶體不夠的問題開始極度緩慢,因此打擊了我創圖的意願。 另一方面,也是對創作
想著有一陣子沒碰SD,就生成了一張繪圖來致敬。
因為最近 Vlad 頻繁出問題,且Img2Img算一張1024x2048、Denoising Strength 0.45 的圖要整整兩個小時,想說暫時先用 A1111 應急。沒想到 A1111 現在也是半斤八兩,沒有 --no-half --no-half-vae u 一定出問題不說,Img2Img
本篇參與的主題活動
在生成式AI與大型語言模型(Large Language Model, LLM)蓬勃發展下,有許多工具可以幫助我們學習與撰寫程式,這篇文章提供了實作範例與一些經驗,分享如何使用ChatGPT(免費的GPT-3.5)協助程式語言的學習,並且完成屬於自己的程式。
前幾個禮拜,AWS 舉行 Startup Day Taiwan。想當然爾,最熱門的主題非生成式 AI (Generative AI) 莫屬。既然 AWS 有現成的工具,身為一名工程師,自然看看無妨,這篇文章算是新手開箱文,會說明如何部署一套基礎模型,並使用 AWS SDK 與其互動。
前言 我在工作中沒有什麼機會接觸到機器學習,學生時期也沒有學習過相關知識。 作為一個業餘小白,我對機器學習非常感興趣。在自學的過程中,我逐漸意識到利用機器學習可以做很多有趣的事情。 因此,我決定嘗試使用 AWS SageMaker JumpStart 來實驗文字生成式繪圖 AI ,以了解機
在生成式AI與大型語言模型(Large Language Model, LLM)蓬勃發展下,有許多工具可以幫助我們學習與撰寫程式,這篇文章提供了實作範例與一些經驗,分享如何使用ChatGPT(免費的GPT-3.5)協助程式語言的學習,並且完成屬於自己的程式。
前幾個禮拜,AWS 舉行 Startup Day Taiwan。想當然爾,最熱門的主題非生成式 AI (Generative AI) 莫屬。既然 AWS 有現成的工具,身為一名工程師,自然看看無妨,這篇文章算是新手開箱文,會說明如何部署一套基礎模型,並使用 AWS SDK 與其互動。
前言 我在工作中沒有什麼機會接觸到機器學習,學生時期也沒有學習過相關知識。 作為一個業餘小白,我對機器學習非常感興趣。在自學的過程中,我逐漸意識到利用機器學習可以做很多有趣的事情。 因此,我決定嘗試使用 AWS SageMaker JumpStart 來實驗文字生成式繪圖 AI ,以了解機