從零開始學AI繪圖 - 實測AI繪圖品質的四大要素(Stable Diffusion)

閱讀時間約 7 分鐘
AI drawing pictures
各位AI繪圖的新手,在使用Stable Diffusion的時候,是否會讚嘆網路上的產品為何如此美麗? 為什麼我產出來的AI繪圖本身就是沒有辦法達到這樣的美感? 難道真的就是要學會那些秘密的咒語(Prompt)才能夠產生美圖嗎?
我們今天這一篇文章,要分享我自己玩AI繪圖到目前為止的心得並且把影響AI繪圖品質歸類為四大要素,我將以實證並且實測的角度來驗證給各位看,到底這幾個要素會怎樣影響我們產生的AI繪圖的品質,跟我一樣好奇或者是AI的繪圖新手們應該可以從今天的文章中掌握到如何提升圖片品質的技巧。關於Stable Diffusion的Prompt寫法,歡迎參考我這一篇文章裏面有比較詳細的說明。
底下就是我個人歸納AI繪圖影響繪圖品質的四大要素,雖然說是四大要素,但是其重要性其實是不太相等的,我這邊會一個一個詳細的解說。我會怎樣驗證這些要素呢? 很簡單,秉持著科學實驗的精神,一次改變一個變因,並且把實測的結果給各位看。
4 Key points for Stable Diffusion Output
第一個因素,Stable Diffusion 選用的Base Model也就是模型,所謂的模型也就是Stable Diffusion這個AI是被那些圖片訓練出來的。我們曾經在這篇文章中探討過AI是怎麼學習繪圖的,如果一個模型是被很多現實世界真正的照片所訓練,那麼他產生出來的圖片一定都是相當的擬真照片風格,如果一個模型是被非常多精美的圖片訓練過,那麼它產生出來的圖片也相對都會相當的美型(但是也很容易有特定的風格)。 我們就來實際看一下我們用同一組的Prompt 產出來的圖片,套用不同的Base Model的結果。 我想很多網友第一個都是希望可以產出美女圖,那麼我們從善如流就用以下的簡單Prompt來做測試吧。 "full body shot of a beautiful woman wearing futuristic outfit"並且加上適當的negative prompt我們 會得到以下的圖片
Sample prompt, different Models
可以看到,產生出來的是四種截然不同的結果。我選擇的第一個 Model Anything v4.5 會產生出非常有美感,但是完全是動漫風格的產出,而第二個我選擇的Model Chilloutmix 則是網路上很多美女圖選用的Base model會產出很漂亮但是面孔是東方年輕女性的,而第三個Dreamshaper model (個人最愛)則是會產出相對好看但是偏西方臉孔的圖片,而第四個大家覺得最沒有美感的反而是Stable Diffusion本身提供的基礎Model SD V1.5。所以產不出美圖嗎? 你第一個要做的事情就是選擇一個能夠產生出漂亮圖片的Base Model,這絕對是最重要的一點。
第二個因素也就是大家所說的詠唱咒語了,這就是Prompt,大家應該都覺得這是最重要的一點,實際上除了Base Model以外,確實也是最重要的,舉凡要產生的內容有哪些主體動作風格,都需要利用Prompt。而毫不意外的Prompt本身也會影響產出的圖片品質,這是怎麼做到的呢? 以下我們就統一用一樣的Base Model但是去嘗試有加上以及沒有加上品質相關的Prompt,還有搭配Negative Prompt去看結果如何。
Same model, differen prompt
這就是產出的結果,而且我有把Seed固定下來(固定Seed會讓我們每次都可以得到完全一樣的產出)。實測證明加上提升品質的Prompt真的可以有效提升產出的圖片品質,然後加上Negative prompt (反向咒語)如果運用得當,可以再次提升輸出的品質,但是也非常可能會大幅度的改變整個圖片的風格。由於詠唱咒語Prompt這個議題博大精深,我這邊肯定會在寫一些文章來深入討論並且實測。
第三個則是我們微調的參數,這部分在Stable Diffusion裡面有好多好多的參數可以調整如下圖
Stable Diffusion UI
初學者最容易理解的就是解析度(高跟寬),其他的可能就不是那麼容易理解了。Sampling method是取樣的方式,這個方式實測上其實發現會產出不同的圖案,但是跟"產出高品質圖案"沒有絕對的關係,比較多的是快慢的問題。比較相關的則是sampling step/CFG scale,我們直接實驗看看FF
CFG Scale vs sampling steps
看圖可以發現,CFG越高,會產生出來的紋理也就越多 (這可不見得是你想要的),一般大家會說CFG越高,會產生越多符合prompt敘述內容的圖片,但是我們這邊的實驗也會明確看到CFG設定越高,你的step 產圖的布數也要越多才行,否則反而會產出相當不美觀的半成品。以經驗法則來說,我個人喜歡使用Euler a, DPM++2M Karras, DPE++SDE Karras, 然後steps設定在25~30之間不要太高,可以得到比較好的感覺,設定太高有時候反而人物的皺紋跟線條都太多反而失去美感,這邊大家可以各自嘗試看看,找到自己最喜歡的參數。
第四個則是各種Extra Network,這包含了Textual Inversion,LORA還有Hypernetworks, 通常Textual inversion大家會用來做一些風格的調整還有反向咒語(Negative prompt)的調整,Hypernetwork也是有人使用但是以目前的成果來看效果相對不如Lora,所以最常使用的就是LORA了,在沒有深入探討之前,可以把這些Extra Network當成是Stable Diffusion的外掛,這些外掛可以影響生成的圖片的內容/風格,可以用來訓練成你喜歡的動漫的人物的樣子,或是訓練成你或是你家人的樣子,可以參考我的這一篇文章
底下就是同樣的Base model 同樣的Prompt套用了不同LORA的結果,大家可以看看差別。SS
sample prompt/model, different LORA
因為是同樣的Prompt/同樣的base model 但是因為套用了不同的LORA所以風格截然不同,且人物的衣服細節,背景等等也完全不同。善用LORA還可以幫助各位達到不需要加入太多細節在Prompt中,但是就可以得到很繁複的衣飾或是背景的效果,對於該怎麼去找LORA,該LORA產生出來的結果如何? 建議大家時常到CIVITAI.COM這個網站去看看,有非常多人無私地分享成果,在這邊也是我個人練功常去的地方,很推薦給各位。
以上,跟各位介紹了四個影響產出風格品質最多的要素,說到底,要AI繪圖時代要產出好的產品,除了有好的構想以外,一定要多多嘗試多多犯錯,歡迎大家也給我一些好的建議,我們互相交流,我們下次見囉。
為什麼會看到廣告
技術PM的AI實驗室,是以輕鬆的角度深入簡出的探討各種生成式AI工具的使用。無論你是想理解AI到底是怎麼運作的? 想知道有那些好用的生成式AI工具? 或者是對AI繪圖有興趣的,都歡迎加入我們的AI實驗室一起輕鬆地玩耍,我們邊玩邊學,學習跟AI一起共創新的可能。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
今天我這邊提供大家一個方法,讓大家可以自己成為這些AI繪圖的主角,也就是在AI裡面建立屬於你自己個人的模型。Stable Diffusion比較少這部分的教學,是因為這部分的訓練的確比較有一些技術的門檻,我這邊會嘗試用比較簡單的方式讓大家可以一個步驟一個步驟照著做,就能夠達到我們想要達到的結果。
我們介紹過很多AI繪圖工具,但是究竟哪一個AI繪圖工具最能理解你的描述呢? 我們決定直接拿一模一樣的輸入(Prompt)餵給各種工具,讓我們來看看會得到怎樣的結果,就知道哪個AI工具最能聽懂人話,請看這篇的分析與實測。
對於還完全沒有AI繪圖經驗的你,該怎麼開始呢? 很簡單,就是開始”玩”! 先從動手開始隨便玩,讓想像力帶著你到處跑,在今天這篇文章裡面我會把幾個比較熱門的AI繪圖網站/工具介紹給你,你可以不要有任何心理壓力的開始玩玩看,看看能得到什麼有趣的結果。
這一篇來談談AI(這邊指的AI是神經網路) 到底怎麼學習畫圖的,究竟只會簡簡單單運算數字的電腦,只有簡單邏輯運算子的IC晶片到底是怎麼做到的? 本篇當然不會讓大家看長篇大論的神經網路的原理,而是用我理解這件事情的方法,講解各個各位聽聽AI繪圖的箇中道理。
到底該學習什麼AI的工具呢? 有一次在PODCAST上偶爾然聽到有人分享,該如何有系統的利用3W1H來解決問題,也談到了關於AI工具之類的想法,所以我這邊稍微做了點整理,作為我這邊探討AI工具的開端。
今天我這邊提供大家一個方法,讓大家可以自己成為這些AI繪圖的主角,也就是在AI裡面建立屬於你自己個人的模型。Stable Diffusion比較少這部分的教學,是因為這部分的訓練的確比較有一些技術的門檻,我這邊會嘗試用比較簡單的方式讓大家可以一個步驟一個步驟照著做,就能夠達到我們想要達到的結果。
我們介紹過很多AI繪圖工具,但是究竟哪一個AI繪圖工具最能理解你的描述呢? 我們決定直接拿一模一樣的輸入(Prompt)餵給各種工具,讓我們來看看會得到怎樣的結果,就知道哪個AI工具最能聽懂人話,請看這篇的分析與實測。
對於還完全沒有AI繪圖經驗的你,該怎麼開始呢? 很簡單,就是開始”玩”! 先從動手開始隨便玩,讓想像力帶著你到處跑,在今天這篇文章裡面我會把幾個比較熱門的AI繪圖網站/工具介紹給你,你可以不要有任何心理壓力的開始玩玩看,看看能得到什麼有趣的結果。
這一篇來談談AI(這邊指的AI是神經網路) 到底怎麼學習畫圖的,究竟只會簡簡單單運算數字的電腦,只有簡單邏輯運算子的IC晶片到底是怎麼做到的? 本篇當然不會讓大家看長篇大論的神經網路的原理,而是用我理解這件事情的方法,講解各個各位聽聽AI繪圖的箇中道理。
到底該學習什麼AI的工具呢? 有一次在PODCAST上偶爾然聽到有人分享,該如何有系統的利用3W1H來解決問題,也談到了關於AI工具之類的想法,所以我這邊稍微做了點整理,作為我這邊探討AI工具的開端。
你可能也想看
Google News 追蹤
Thumbnail
研究AI生成美女圖像 研究AI生成美女圖像是一個很有趣的方向,特別是對於喜歡速寫但很少畫美女的我來說。AI生成圖像的技術不僅可以幫助創作出我心中所想的形象,還可以作為靈感的來源,讓我在速寫中嘗試新的風格和主題。 基於大量的數據訓練 AI生成的圖像通常基於大量的數據訓練,可以創造出各種不同風格和
Thumbnail
這裡有幾張我用不同AI繪圖生成器生成的美女圖片,每張圖片的風格各有不同,但都充滿了獨特的魅力。我挑選了幾張我特別喜歡的供大家觀賞,希望你們也能喜歡。 這些圖片展現了不同的美態,有的溫婉優雅,有的活潑可愛,每一張都彷彿訴說著不同的故事。一天的忙碌結束後,看看這些美麗的畫面,真是一種愉快的享受。希望這
Thumbnail
來看看如何使用AI詠唱的方式,生成需要的雜誌畫面,並對比實際平面模特兒拍攝的照片,變換風格或是指定地區,來看看每一段描述的改變,會產生出什麼樣的變化。
Thumbnail
在描述AI生成的圖像時,確實可以遇到一些挑戰,尤其是當要表達特定的詩意或情感時。根據你的描述,這四張圖像是根據四個詩句創作的,並且它們展示了年輕的女性形象。儘管圖像顯示出一定的美麗,但似乎未能完全捕捉到詩句中所表達的細膩情感或具體特徵。 以下這四張是分別對應四個詩句生成的美女,使用的AI是Copi
Thumbnail
在現代社會中,對於美的定義不斷變化,尤其是在科技進步的今天,AI技術的發展使得我們能夠以全新的方式呈現美麗。其中,AI生成的女性形象往往引起人們的關注,尤其是在膚質的表現上。美麗的外表固然重要,但細膩的膚質更是讓人驚艷的關鍵,這不僅僅是視覺上的享受,更是情感上的共鳴。 在我看來,膚質的美麗應該是精
Thumbnail
如何用AI生成美女,用提示詞生成美麗的美女! 這裡嘗試了幾張,這裡挑選出覺得還不錯的。這張的重點是在水珠,美女在中間臉部沒有水珠,在肩部的水珠形成對比。 這張薄紗的感覺就差一些,姿勢擺得並不出色,可能擺字,造成兩者對稱,就沒有那麼漂亮了,顯得制式化。 我喜歡這張的美,自然又動人,沒有一點瑕疵,這
Thumbnail
最近有空時就在看如何使用AI作圖的方式製作出有魄力的動作與構圖,恰巧在Civitai這個AI作圖網站上找到了一些有趣的人物姿態,因此發想了一些構圖,依照這些構想做出來的圖效果還算可以接受,因此在這邊記錄一下過程與步驟。
Thumbnail
生成式AI工具即將邁入三年,除了ChatGPT以外,也進化了許多GenAI工具,如Sora影片生成等。 你知道Stable Diffusion嗎? 從詠唱魔法師Prompts的玩家或職務,AI浪潮持續推進下,SD-WebUI並沒有停滯或被淘汰。 結果告訴了我們一件事情...
Thumbnail
Tensor Art 使用 Stable Diffusion 的各種模型,也能使用ControlNet 和 LoRA功能,根據使用者的輸入來文生圖、圖生圖,生成各種風格的高質量圖像,包括人像、動人的風景、創意的抽象畫等。
Thumbnail
這篇要來分享一下學習了一些攝影的知識後,用於改良AI生圖的經驗。 AI生圖可以藉由少少的幾個句子產生出非常美麗的圖片,事實上,很多時候AI生圖的極限是卡在人類使用者的想像力之下。
Thumbnail
研究AI生成美女圖像 研究AI生成美女圖像是一個很有趣的方向,特別是對於喜歡速寫但很少畫美女的我來說。AI生成圖像的技術不僅可以幫助創作出我心中所想的形象,還可以作為靈感的來源,讓我在速寫中嘗試新的風格和主題。 基於大量的數據訓練 AI生成的圖像通常基於大量的數據訓練,可以創造出各種不同風格和
Thumbnail
這裡有幾張我用不同AI繪圖生成器生成的美女圖片,每張圖片的風格各有不同,但都充滿了獨特的魅力。我挑選了幾張我特別喜歡的供大家觀賞,希望你們也能喜歡。 這些圖片展現了不同的美態,有的溫婉優雅,有的活潑可愛,每一張都彷彿訴說著不同的故事。一天的忙碌結束後,看看這些美麗的畫面,真是一種愉快的享受。希望這
Thumbnail
來看看如何使用AI詠唱的方式,生成需要的雜誌畫面,並對比實際平面模特兒拍攝的照片,變換風格或是指定地區,來看看每一段描述的改變,會產生出什麼樣的變化。
Thumbnail
在描述AI生成的圖像時,確實可以遇到一些挑戰,尤其是當要表達特定的詩意或情感時。根據你的描述,這四張圖像是根據四個詩句創作的,並且它們展示了年輕的女性形象。儘管圖像顯示出一定的美麗,但似乎未能完全捕捉到詩句中所表達的細膩情感或具體特徵。 以下這四張是分別對應四個詩句生成的美女,使用的AI是Copi
Thumbnail
在現代社會中,對於美的定義不斷變化,尤其是在科技進步的今天,AI技術的發展使得我們能夠以全新的方式呈現美麗。其中,AI生成的女性形象往往引起人們的關注,尤其是在膚質的表現上。美麗的外表固然重要,但細膩的膚質更是讓人驚艷的關鍵,這不僅僅是視覺上的享受,更是情感上的共鳴。 在我看來,膚質的美麗應該是精
Thumbnail
如何用AI生成美女,用提示詞生成美麗的美女! 這裡嘗試了幾張,這裡挑選出覺得還不錯的。這張的重點是在水珠,美女在中間臉部沒有水珠,在肩部的水珠形成對比。 這張薄紗的感覺就差一些,姿勢擺得並不出色,可能擺字,造成兩者對稱,就沒有那麼漂亮了,顯得制式化。 我喜歡這張的美,自然又動人,沒有一點瑕疵,這
Thumbnail
最近有空時就在看如何使用AI作圖的方式製作出有魄力的動作與構圖,恰巧在Civitai這個AI作圖網站上找到了一些有趣的人物姿態,因此發想了一些構圖,依照這些構想做出來的圖效果還算可以接受,因此在這邊記錄一下過程與步驟。
Thumbnail
生成式AI工具即將邁入三年,除了ChatGPT以外,也進化了許多GenAI工具,如Sora影片生成等。 你知道Stable Diffusion嗎? 從詠唱魔法師Prompts的玩家或職務,AI浪潮持續推進下,SD-WebUI並沒有停滯或被淘汰。 結果告訴了我們一件事情...
Thumbnail
Tensor Art 使用 Stable Diffusion 的各種模型,也能使用ControlNet 和 LoRA功能,根據使用者的輸入來文生圖、圖生圖,生成各種風格的高質量圖像,包括人像、動人的風景、創意的抽象畫等。
Thumbnail
這篇要來分享一下學習了一些攝影的知識後,用於改良AI生圖的經驗。 AI生圖可以藉由少少的幾個句子產生出非常美麗的圖片,事實上,很多時候AI生圖的極限是卡在人類使用者的想像力之下。