Latent Diffusion Model(LDM)

更新 發佈閱讀 3 分鐘

Latent Diffusion Model(LDM)是一種現代深度生成模型,主要應用於高解析度影像生成(如 Stable Diffusion)。它在「潛在空間」(latent space)裡操作擴散過程,以更少資源實現高品質生成。

核心架構與原理:

Autoencoder 壓縮:先訓練一個 autoencoder,把原始資料(如圖片)壓縮成潛在空間裡的低維度特徵表徵。這使後續運算集中在資訊最多但維度最少的地方,提高效率。

潛在空間內的擴散建模:傳統擴散模型(Diffusion Model)是在原始像素空間反覆加入/去除雜訊,但這樣訓練和生成成本非常高。LDM 則在 autoencoder 的潛在空間進行擴散過程,大大減少了運算量——既降低複雜度又不損畫質。

擴散過程:模型先將潛在向量反覆加入高斯噪聲,訓練模型再學習如何一步步「去掉」這些噪聲,最終重建回原始潛在向量,經過解碼器還原成影像。

多種「條件化」:透過 cross-attention 機制,LDM 可以接收如文字描述、框選、語意分割等條件,產生指定風格、內容的高畫質影像。

損失函數:主要用 MSE(均方誤差)來衡量模型預測的噪聲是否和真實噪聲相符。

主要優勢

極大減少訓練資源消耗(只需潛在空間運算,而非高維像素空間)。

可生成高解析度、高質量圖像,並支持各種應用(如圖像修補、文字生成圖片、超解析度)。

图像生成速度更快,适合实际部署。

代表性應用

Stable Diffusion、Dalai 等文字到圖像的生成式 AI 就是基於 LDM 架構。

圖像超解析、修補、語義合成等高階影像任務。

總結:

Latent Diffusion Model 是把「擴散模型」帶進了壓縮後的潛在空間,利用 autoencoder 把高維數據壓縮進精華空間,使得影像生成又快又省資源,但畫質依然出色,成為目前生成式 AI 圖像領域的主流技術之一。

留言
avatar-img
留言分享你的想法!
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
25會員
495內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師 AWS Certified AI Practitioner (AIF-C01)
2025/08/18
T5(Text-to-Text Transfer Transformer)是由 Google AI 團隊於2020年提出的一種基於 Transformer 的自然語言處理模型。它的核心創新是將所有 NLP 任務統一表達為「文本轉文本(text-to-text)」的格式,不論是翻譯、摘要、問答、分類等
2025/08/18
T5(Text-to-Text Transfer Transformer)是由 Google AI 團隊於2020年提出的一種基於 Transformer 的自然語言處理模型。它的核心創新是將所有 NLP 任務統一表達為「文本轉文本(text-to-text)」的格式,不論是翻譯、摘要、問答、分類等
2025/08/18
Seq2Seq(Sequence-to-Sequence)是一種深度學習架構,專門用來處理可變長度的序列輸入並生成可變長度的序列輸出,特別適合語言翻譯、文本摘要、語音識別等自然語言處理任務。 核心架構-Encoder-Decoder • Encoder(編碼器):將輸入序列逐步讀入,提取其重要
2025/08/18
Seq2Seq(Sequence-to-Sequence)是一種深度學習架構,專門用來處理可變長度的序列輸入並生成可變長度的序列輸出,特別適合語言翻譯、文本摘要、語音識別等自然語言處理任務。 核心架構-Encoder-Decoder • Encoder(編碼器):將輸入序列逐步讀入,提取其重要
2025/08/18
Reconstruction loss(重建損失)是深度學習中特別常見於自編碼器(autoencoder)和生成模型中的損失函數,用來衡量模型輸出(重建結果)和輸入原始數據之間的不一致性。 定義 重建損失量化了模型“重建”原始輸入的能力,目標是讓輸入經過編碼器編碼後,再由解碼器還原出來的輸出與原
2025/08/18
Reconstruction loss(重建損失)是深度學習中特別常見於自編碼器(autoencoder)和生成模型中的損失函數,用來衡量模型輸出(重建結果)和輸入原始數據之間的不一致性。 定義 重建損失量化了模型“重建”原始輸入的能力,目標是讓輸入經過編碼器編碼後,再由解碼器還原出來的輸出與原
看更多
你可能也想看
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
還在煩惱平凡日常該如何增添一點小驚喜嗎?全家便利商店這次聯手超萌的馬來貘,推出黑白配色的馬來貘雪糕,不僅外觀吸睛,層次豐富的雙層口味更是讓人一口接一口!本文將帶你探索馬來貘雪糕的多種創意吃法,從簡單的豆漿燕麥碗、藍莓果昔,到大人系的奇亞籽布丁下午茶,讓可愛的馬來貘陪你度過每一餐,增添生活中的小確幸!
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
本文參考TensorFlow官網Deep Convolutional Generative Adversarial Network的程式碼來加以實作說明。 示範如何使用深度卷積生成對抗網路(DCGAN) 生成手寫數位影像。
Thumbnail
本文將延續上一篇文章,經由訓練好的GAN模型中的生成器來生成圖片 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 [深度學習][Python]訓練CNN的GAN模型來生成圖片_訓練篇 相較之下CNN的GAN生成的效果比較好,但模型也相對比較複雜,訓練時間花的也比較
Thumbnail
本文將延續上一篇文章,經由訓練好的GAN模型中的生成器來生成圖片 [深度學習][Python]訓練MLP的GAN模型來生成圖片_訓練篇 [深度學習][Python]訓練CNN的GAN模型來生成圖片_訓練篇 相較之下CNN的GAN生成的效果比較好,但模型也相對比較複雜,訓練時間花的也比較
Thumbnail
本文將延續上一篇文章,經由訓練好的VAE模型其中的解碼器,來生成圖片。 [深度學習]訓練VAE模型用於生成圖片_訓練篇 輸入產生的隨機雜訊,輸入VAE的解碼器後,生成的圖片
Thumbnail
本文將延續上一篇文章,經由訓練好的VAE模型其中的解碼器,來生成圖片。 [深度學習]訓練VAE模型用於生成圖片_訓練篇 輸入產生的隨機雜訊,輸入VAE的解碼器後,生成的圖片
Thumbnail
本文主要介紹,如何利用VAE變分自編碼器來訓練生成圖片。 訓練集資料將採用TF影像資料庫中的fashion_mnist VAE變分自編碼器簡單介紹 •VAE(Variational Auto-Encoder)中文名稱變分自編碼器,主要是一種將原始資料編碼到潛在向量空間,再編碼回來的神經網路。
Thumbnail
本文主要介紹,如何利用VAE變分自編碼器來訓練生成圖片。 訓練集資料將採用TF影像資料庫中的fashion_mnist VAE變分自編碼器簡單介紹 •VAE(Variational Auto-Encoder)中文名稱變分自編碼器,主要是一種將原始資料編碼到潛在向量空間,再編碼回來的神經網路。
Thumbnail
GNN發展背景 傳統的深度學習模型如在計算機視覺(CV)和自然語言處理(NLP)領域中極為成功,主要是處理結構化數據如影像和文本。這些數據類型通常具有固定且規律的結構,例如影像是由有序的像素點組成。然而,在真實世界中,許多數據是非結構化的,如化合物結構(原子和分子)。這些數據雖然具有一定的規則性,
Thumbnail
GNN發展背景 傳統的深度學習模型如在計算機視覺(CV)和自然語言處理(NLP)領域中極為成功,主要是處理結構化數據如影像和文本。這些數據類型通常具有固定且規律的結構,例如影像是由有序的像素點組成。然而,在真實世界中,許多數據是非結構化的,如化合物結構(原子和分子)。這些數據雖然具有一定的規則性,
Thumbnail
本文下方連結的文章,利用Stable Diffusion生成512 * 512大小的圖片。 輸入的文字是 dog flying in space,此模型需輸入英文句子才會準確生成。 參考文獻 連結該作者在Hugging Face公開的模型去做使用。 本文是在Colab上執行。
Thumbnail
本文下方連結的文章,利用Stable Diffusion生成512 * 512大小的圖片。 輸入的文字是 dog flying in space,此模型需輸入英文句子才會準確生成。 參考文獻 連結該作者在Hugging Face公開的模型去做使用。 本文是在Colab上執行。
Thumbnail
長短期記憶(英語:Long Short-Term Memory,LSTM)是一種時間循環神經網路(RNN),論文首次發表於1997年。 LSTM(長短期記憶)是一種特定類型的遞歸神經網絡(RNN),在許多需要處理時間序列數據或順序數據的應用中非常有用。 以下是一些常見的 LSTM 應用:
Thumbnail
長短期記憶(英語:Long Short-Term Memory,LSTM)是一種時間循環神經網路(RNN),論文首次發表於1997年。 LSTM(長短期記憶)是一種特定類型的遞歸神經網絡(RNN),在許多需要處理時間序列數據或順序數據的應用中非常有用。 以下是一些常見的 LSTM 應用:
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News