《M.O.N》書封製作 | Stable Diffusion

2023/11/01閱讀時間約 3 分鐘
《M.O.N》

《M.O.N》



筆者最近開啟連載的小說《M.O.N》是以AI、仿生人、安寧療護為主軸的科幻短篇,約萬多字。四分之三的內容將限時免費公開,預計於本月發布完畢,期盼格友們一閱。

書封,按照慣例,是自製;也按照慣例,使用了Stable Diffusion (SD)。

設定細節請容筆者略過,僅分享過程概要。因為需使用ControlNet,使用的是1.5版(舊版/非SDXL)的流程。




步驟1:白色長廊

最初是以SD生成只有長廊的圖:

白色長廊

白色長廊

生成方法是先在Google上搜尋「infinite hallway、white hallway、endless hallway、bright hallway」等關鍵字,蒐集數張可用的參考圖片,然後運用ControlNetreference功能來生圖。

上圖是在 Clip Studio Paint 中融合二~三張SD生成的圖後製而成的成果。


步驟2:3D素描人偶

靈感源自格友子不語的生成角色流程:SD很難在沒有提供人物外觀/姿勢參考的情況下,單憑提示詞畫出想要的姿勢與外觀,所以提供SD人物圖像參考非常重要

子不語的方法是使用3D模型調動作的網站/軟體,筆者的方法是使用Clip Studio Paint內建的3D素描人偶功能,搭配透視參考線將3D視角調整成與長廊一致(下輪播圖1/左圖)。

因為原本人偶身上的參考線與地上陰影不利於後續加工,於是將人偶的參考線關閉,並調整光源設定,讓人偶陰影更貼合長廊光源(下輪播圖2/右圖)。


步驟3:粗略手繪

既然都已經使用Clip Studio Paint了,那就手動再做一層加工吧,畢竟步驟2的人偶全身灰茫茫,就這樣直接丟進SD後果不堪設想,於是筆者花了十幾二十分鐘幫人偶穿衣上色:

粗略手繪加工

粗略手繪加工


步驟4:I2I + ControlNet

接著是不少SD使用者已經很熟悉的I2I + ControlNet流程。將步驟3的圖套用以下提示詞,再以高Denoising Strength數值搭配ControlNet的tile_resample生成圖片:

A silver hair woman wearing white doctor robe in a white hallway, 1girl, solo, white clothes, white robe, doctor robe, silver hair, looking back at camera, reflection on the floor, strip lighting, realistic, photorealistic,



步驟5:人工合併元素 + 重複步驟4

一如既往,SD很難一蹴可幾,所以才會有上面步驟4的五張輪播圖。筆者挑選各圖想要的部分在Clip Studio Paint中合併與調整後,繼續重複步驟4兩次,總算生成整體感覺已很接近自己所想的成果:

I2I + tile_resample

I2I + tile_resample

岔個題:

或許有人會想:為何不直接使用仿生人 (Android) 提示詞?

筆者的回答是:因為仿生人的「類型」太多了,而筆者想要的是只有膚色不同於真人的仿生人。如果直接使用Android這個提示詞,SD有高機率生成附有機械零件或「不像人」的角色。

膚色很好手動調整,零件或不像人可就難了。


步驟6:最終人工後製

瞳色、膚色、地上的陰影、光線的色調——等等不滿意之處,就再回Clip Studio Paint中手動調整,最終成果如下:

——順便簽個名。

No. 序 | HP- 章 || 科幻短篇《M.O.N》




78會員
104內容數
筆者探索AI工具時遇到的難題、解方和雜談,不定期更新。
留言0
查看全部
發表第一個留言支持創作者!