以流為基礎的深度生成模型

更新於 發佈於 閱讀時間約 3 分鐘

以流為基礎的深度生成模型藉助正規化流這一強大的統計工具來解決密度估計這個困難問題。對 p(x) 的良好估計使得有效完成許多下游任務成為可能:取樣未觀察到但真實的新數據點(數據生成)、預測未來事件的稀有程度(密度估計)、推斷潛在變量、填補不完整的數據樣本等。


生成模型的類型


以下是生成對抗網路(GAN)、變分自編碼器(VAE)和以流為基礎的生成模型之間差異的簡單介紹:

生成對抗網路:GAN提供了一個巧妙的解決方法,將資料生成這個非監督式學習問題轉化為監督式學習問題。判別器模型學習區分真實資料和生成器模型產生的假樣本資料。兩個模型在訓練過程中如同進行極小極大博弈過程。


變分自編碼器:VAE通過最大化證據下界(ELBO)來間接最佳化數據的對數相似性。


基於流的生成模型:基於流的生成模型由一系列可逆變換建構。與其他兩種模型不同,該模型明確地學習數據分佈 p(x),因此損失函數就是簡單的負對數相似性。


什麼是正規化流?

密度估計是一種幫助解決機器學習問題的重要方法,但要進行一個精準的密度估計非常困難。例如,由於我們需要在深度學習模型中運行反向傳播,嵌入的機率分佈(即後驗 p(z∣x))必須要簡單到能夠容易且快速地計算導數。正規化流(NF)方法在此時採用更好的分佈近似而被廣泛應用。正規化流通過使用一系列可逆變換函數,將簡單的分佈轉換為複雜的分佈。通過一連串的變換,我們根據變量變換定理反覆替換變量,最終得到目標變量的機率分佈。


Reference


1. Normalizing Flows by Adam Kosiorek.

  1. Danilo Jimenez Rezende, and Shakir Mohamed. “Variational inference with normalizing flows.” ICML 2015.
  2. Laurent Dinh, Jascha Sohl-Dickstein, and Samy Bengio. “Density estimation using Real NVP.” ICLR 2017.
留言
avatar-img
留言分享你的想法!
avatar-img
Kiki的沙龍
3會員
45內容數
心繫正體中文的科學家,立志使用正體中文撰寫文章。 此沙龍預計涵蓋各項資訊科技知識分享與學習心得
Kiki的沙龍的其他內容
2025/04/27
Meta 推出了開源大型語言模型 Llama。這一代特別引人注目,因為 80 億參數的模型小到可以在家用電腦上運行,效能卻不輸比它大十倍的模型。在許多應用場景下,它給出的回應品質已經能媲美 GPT-4。在這篇文章裡,我會說明自架 Llama 3 的優缺點,並提供設定方式與資源,讓讀者也能輕鬆動手。
2025/04/27
Meta 推出了開源大型語言模型 Llama。這一代特別引人注目,因為 80 億參數的模型小到可以在家用電腦上運行,效能卻不輸比它大十倍的模型。在許多應用場景下,它給出的回應品質已經能媲美 GPT-4。在這篇文章裡,我會說明自架 Llama 3 的優缺點,並提供設定方式與資源,讓讀者也能輕鬆動手。
2025/04/20
這份實務指引旨在協助產品和工程團隊入門 大型語言模型(LLM)驅動的人工智慧代理人建構,它定義了代理的核心概念,例如獨立執行任務和利用 LLM 管理工作流程決策。本文闡述了何時應考慮建立代理,特別是在傳統自動化方法受限的複雜情境,並深入探討了代理設計的基礎要素,包括模型選擇、工具整合及指令設置。
2025/04/20
這份實務指引旨在協助產品和工程團隊入門 大型語言模型(LLM)驅動的人工智慧代理人建構,它定義了代理的核心概念,例如獨立執行任務和利用 LLM 管理工作流程決策。本文闡述了何時應考慮建立代理,特別是在傳統自動化方法受限的複雜情境,並深入探討了代理設計的基礎要素,包括模型選擇、工具整合及指令設置。
2025/04/06
這篇文章將搭配簡單的範例,介紹最近推出的 Docker Model Runner。內容比較隨意粗略,希望能成為讓讀者了解這項工具的契機!
2025/04/06
這篇文章將搭配簡單的範例,介紹最近推出的 Docker Model Runner。內容比較隨意粗略,希望能成為讓讀者了解這項工具的契機!
看更多