擴散模型(Diffusion Models)簡介

擴散模型(Diffusion Models)簡介

更新於 發佈於 閱讀時間約 2 分鐘

擴散模型受非均衡熱力學啟發。非均衡熱力學定義了一個擴散步驟的馬可夫鏈,逐步向資料添加隨機資訊,然後學習如何逆轉擴散過程,從隨機資訊中建構所需的樣本資料。與變分自編碼器(VAE)或以流為基礎的模型不同,擴散模型是通過固定程序學習的,且其潛在變量具有高維度(與原始資料相同)。


幾種基於擴散模型的生成式模型已被提出,它們的基本理念相似,包括擴散機率模型(Sohl-Dickstein等人,2015年)、條件干擾分數網路(NCSN;Yang和Ermon,2019年),以及去噪擴散概率模型(DDPM;Ho等人,2020年)。四種生成模型的示意圖比較,從上到下分別是:生成對抗網路(GAN)、變分自編碼器(VAE)、流模型和擴散模型。


不同類型的生成模型

不同類型的生成模型

給定一個從真實數據分佈中取樣的數據點 x_0,讓我們定義一個前向擴散過程,在這個過程中,我們在 T 個步驟中向樣本添加少量高斯噪訊,產生一系列噪訊樣本 x_1,…,x_T​。步長由方差時間表 β_1,…,β_Tβ1​,…,βT​ 控制。

q(xt∣xt−1)=N(xt;1−βtxt−1,βtI)q(xt​∣xt−1​)=N(xt​;1−βt​​xt−1​,βt​I)

隨著步驟 t 變大,數據樣本 x_0​ 逐漸失去其可辨識的特徵。最終當 t→T 時,x_T​ 等同於一個各向同性的高斯分佈。

avatar-img
Kiki的沙龍
1會員
40內容數
心繫正體中文的科學家,立志使用正體中文撰寫文章。 此沙龍預計涵蓋各項資訊科技知識分享與學習心得
留言
avatar-img
留言分享你的想法!
Kiki的沙龍 的其他內容
Meta 推出了開源大型語言模型 Llama。這一代特別引人注目,因為 80 億參數的模型小到可以在家用電腦上運行,效能卻不輸比它大十倍的模型。在許多應用場景下,它給出的回應品質已經能媲美 GPT-4。在這篇文章裡,我會說明自架 Llama 3 的優缺點,並提供設定方式與資源,讓讀者也能輕鬆動手。
這份實務指引旨在協助產品和工程團隊入門 大型語言模型(LLM)驅動的人工智慧代理人建構,它定義了代理的核心概念,例如獨立執行任務和利用 LLM 管理工作流程決策。本文闡述了何時應考慮建立代理,特別是在傳統自動化方法受限的複雜情境,並深入探討了代理設計的基礎要素,包括模型選擇、工具整合及指令設置。
這篇文章將搭配簡單的範例,介紹最近推出的 Docker Model Runner。內容比較隨意粗略,希望能成為讓讀者了解這項工具的契機!
Meta 推出了開源大型語言模型 Llama。這一代特別引人注目,因為 80 億參數的模型小到可以在家用電腦上運行,效能卻不輸比它大十倍的模型。在許多應用場景下,它給出的回應品質已經能媲美 GPT-4。在這篇文章裡,我會說明自架 Llama 3 的優缺點,並提供設定方式與資源,讓讀者也能輕鬆動手。
這份實務指引旨在協助產品和工程團隊入門 大型語言模型(LLM)驅動的人工智慧代理人建構,它定義了代理的核心概念,例如獨立執行任務和利用 LLM 管理工作流程決策。本文闡述了何時應考慮建立代理,特別是在傳統自動化方法受限的複雜情境,並深入探討了代理設計的基礎要素,包括模型選擇、工具整合及指令設置。
這篇文章將搭配簡單的範例,介紹最近推出的 Docker Model Runner。內容比較隨意粗略,希望能成為讓讀者了解這項工具的契機!