Late Fusion(晚期融合)

更新於 發佈於 閱讀時間約 2 分鐘

Late Fusion(晚期融合),也稱為決策層融合,是多模態學習中的一種融合策略。它的核心特點是在各模態經過獨立模型處理並生成各自的預測結果後,再將這些結果進行合併(融合)以得到最終決策。

Late Fusion 的運作流程:

  1. 獨立訓練模態模型:對每個模態(如圖像、文字、音訊)分別訓練獨立模型。
  2. 生成各自預測:每個模型根據自己的輸入模態產生預測結果(如分類概率分布)。
  3. 融合預測結果:通過投票(majority voting)、加權平均(weighted averaging)、置信度加權(confidence weighting)或訓練一個融合模型(如元學習器)等方法合併多個預測。
  4. 產生最終決策:融合後的結果作為最終輸出。

優點:

  • 模組化強:不同模態的模型可以獨立設計、訓練與優化,方便維護與擴展。
  • 彈性高:新增或移除模態比較容易,不需重新訓練整個多模態模型。
  • 降低維度災難:避免早期融合將多模態特徵拼接帶來的高維計算與過擬合問題。
  • 缺失模態容錯:即使部分模態不可用,只要其他模態模型正常可用,系統仍能做出決策。

缺點:

  • 缺乏跨模態深度交互:因為模態獨立處理,可能無法捕捉模態間細緻且有利的互動信息。
  • 性能限制:在需要強調模態間語義融合的任務上,晚期融合方法性能可能不及早期融合。

適用場景:

  • 各模態數據來自完全不同源且差異較大,
  • 需要靈活組合多模態模型的應用,
  • 計算資源有限或訓練資料有限時。


總結來說,Late Fusion是一種先分別處理多模態數據並獨立產生預測,最後在決策層融合結果的策略,強調模組間解耦與靈活性,適用於模態差異大且需容錯多模態系統。

留言
avatar-img
留言分享你的想法!
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
16會員
424內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師 AWS Certified AI Practitioner (AIF-C01)
2025/08/18
Early Fusion(早期融合),又稱為特徵層融合,是多模態表示學習中的一種融合策略。它的核心思想是在數據輸入模型前,將來自不同模態的原始數據或特徵先行整合為一個統一的特徵向量,再作為模型的輸入進行學習。 主要流程: 特徵提取:從每個模態(如影像、音訊、文字)提取原始或低階特徵。 特徵拼接
2025/08/18
Early Fusion(早期融合),又稱為特徵層融合,是多模態表示學習中的一種融合策略。它的核心思想是在數據輸入模型前,將來自不同模態的原始數據或特徵先行整合為一個統一的特徵向量,再作為模型的輸入進行學習。 主要流程: 特徵提取:從每個模態(如影像、音訊、文字)提取原始或低階特徵。 特徵拼接
2025/08/18
Coordinated Representation(協調表示)是多模態學習中一種表示學習策略,與Joint Representation(聯合表示)相對。其核心思想是:將不同模態的數據映射到各自的專屬表示空間中,但同時通過某種約束或優化方法,使這些不同空間的表示相互協調、保持語義一致性。 主要特
2025/08/18
Coordinated Representation(協調表示)是多模態學習中一種表示學習策略,與Joint Representation(聯合表示)相對。其核心思想是:將不同模態的數據映射到各自的專屬表示空間中,但同時通過某種約束或優化方法,使這些不同空間的表示相互協調、保持語義一致性。 主要特
2025/08/18
Joint Representation(聯合表示)是多模態學習中的重要策略之一,指的是將來自不同模態(如文字、圖像、音訊等)的數據,同時編碼並映射到一個共享的高維向量空間中,形成一個統一的數據表示。這種表示方法試圖捕捉並融合各模態間的互補信息與共通語義,讓模型能對多源資料進行更深度的理解與推理。
2025/08/18
Joint Representation(聯合表示)是多模態學習中的重要策略之一,指的是將來自不同模態(如文字、圖像、音訊等)的數據,同時編碼並映射到一個共享的高維向量空間中,形成一個統一的數據表示。這種表示方法試圖捕捉並融合各模態間的互補信息與共通語義,讓模型能對多源資料進行更深度的理解與推理。
看更多
你可能也想看
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
最近在嘗試使用不同的AI生圖方式混合出圖的方式,採用A平台的優點,並用B平台後製的手法截長補短,創造出自己更想要的小說場景,效果不錯,現在以這張圖為例,來講一下我的製作步驟。
Thumbnail
最近在嘗試使用不同的AI生圖方式混合出圖的方式,採用A平台的優點,並用B平台後製的手法截長補短,創造出自己更想要的小說場景,效果不錯,現在以這張圖為例,來講一下我的製作步驟。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COP
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 接著來談 Transformer 架構中的 Feedforward Network (FFN): 其為全連接的神經網路架構 回顧 AI說書 - 從0開始 - 64
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 接著來談 Transformer 架構中的 Feedforward Network (FFN): 其為全連接的神經網路架構 回顧 AI說書 - 從0開始 - 64
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 講完 Transformer 之 Encoder 架構中的 Embedding 與 Positional Encoding 部分,現在進入 Multi-Head Att
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 講完 Transformer 之 Encoder 架構中的 Embedding 與 Positional Encoding 部分,現在進入 Multi-Head Att
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 44說完 Embedding ,下一步就是闡述 Positional Embedding,其於原始 Transformer 架構中的角色
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 44說完 Embedding ,下一步就是闡述 Positional Embedding,其於原始 Transformer 架構中的角色
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先先展示 Transformer 的架構圖: 可以看到架構中不再出現 RNN 、 LSTM 、 CNN 等物件,因為 Recurrence 已被摒棄。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先先展示 Transformer 的架構圖: 可以看到架構中不再出現 RNN 、 LSTM 、 CNN 等物件,因為 Recurrence 已被摒棄。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News