筆者最近開啟連載的小說《M.O.N》是以AI、仿生人、安寧療護為主軸的科幻短篇,約萬多字。四分之三的內容將限時免費公開,預計於本月發布完畢,期盼格友們一閱。
書封,按照慣例,是自製;也按照慣例,使用了Stable Diffusion (SD)。
設定細節請容筆者略過,僅分享過程概要。因為需使用ControlNet,使用的是1.5版(舊版/非SDXL)的流程。
最初是以SD生成只有長廊的圖:
生成方法是先在Google上搜尋「infinite hallway、white hallway、endless hallway、bright hallway」等關鍵字,蒐集數張可用的參考圖片,然後運用ControlNet的reference功能來生圖。
上圖是在 Clip Studio Paint 中融合二~三張SD生成的圖後製而成的成果。
靈感源自格友子不語的生成角色流程:SD很難在沒有提供人物外觀/姿勢參考的情況下,單憑提示詞畫出想要的姿勢與外觀,所以提供SD人物圖像參考非常重要。
子不語的方法是使用3D模型調動作的網站/軟體,筆者的方法是使用Clip Studio Paint內建的3D素描人偶功能,搭配透視參考線將3D視角調整成與長廊一致(下輪播圖1/左圖)。
因為原本人偶身上的參考線與地上陰影不利於後續加工,於是將人偶的參考線關閉,並調整光源設定,讓人偶陰影更貼合長廊光源(下輪播圖2/右圖)。
既然都已經使用Clip Studio Paint了,那就手動再做一層加工吧,畢竟步驟2的人偶全身灰茫茫,就這樣直接丟進SD後果不堪設想,於是筆者花了十幾二十分鐘幫人偶穿衣上色:
接著是不少SD使用者已經很熟悉的I2I + ControlNet流程。將步驟3的圖套用以下提示詞,再以高Denoising Strength數值搭配ControlNet的tile_resample生成圖片:
A silver hair woman wearing white doctor robe in a white hallway, 1girl, solo, white clothes, white robe, doctor robe, silver hair, looking back at camera, reflection on the floor, strip lighting, realistic, photorealistic,
一如既往,SD很難一蹴可幾,所以才會有上面步驟4的五張輪播圖。筆者挑選各圖想要的部分在Clip Studio Paint中合併與調整後,繼續重複步驟4兩次,總算生成整體感覺已很接近自己所想的成果:
岔個題:
或許有人會想:為何不直接使用仿生人 (Android) 提示詞?
筆者的回答是:因為仿生人的「類型」太多了,而筆者想要的是只有膚色不同於真人的仿生人。如果直接使用Android這個提示詞,SD有高機率生成附有機械零件或「不像人」的角色。
膚色很好手動調整,零件或不像人可就難了。
瞳色、膚色、地上的陰影、光線的色調——等等不滿意之處,就再回Clip Studio Paint中手動調整,最終成果如下:
——順便簽個名。