多模態預訓練模型

更新於 發佈於 閱讀時間約 2 分鐘

目前知名的多模態預訓練模型主要包括以下幾種:

  • CLIP:由OpenAI提出,採用對比學習方法,同時訓練一個視覺編碼器和一個語言編碼器,使模型能將影像與其對應的文字描述關聯起來,是多模態學習的基礎突破。wbolt
  • LLaVA:結合強大的視覺編碼器和大型語言模型,採用兩階段訓練,第一階段為大規模多模態預訓練,第二階段是指令微調,以提升對視覺與語言的理解和交互能力。
  • GPT-4多模態版:OpenAI的多模態GPT-4結合了語言和視覺能力,是當前多模態大型模型的代表。
  • PaLI:谷歌的大型多模態模型,使用10B圖文數據進行訓練,擁有17B模型參數。
  • BEiT-3:微軟提出的多模態模型,基於統一掩碼任務訓練,模型參數約10B。
  • Flamingo:DeepMind的多模態模型,具備80B參數,能實現強大的多模態上下文學習。
  • M6:阿里巴巴和清華大學合作的多模態預訓練模型,基於共享Transformer架構,支持多模態理解和生成。
  • Unified-IO:AllenAI提出的跨多領域、多模態任務的統一架構。cips-ssatt23.bcebos
  • ImageBind (MetaAI):將視覺作為中心,通過對比學習連接六種不同模態,支持多模態融合。

這些模型大多採用自監督學習和Transformer架構,以大量無標註的多模態數據進行預訓練,目標是同時實現跨模態理解與生成,並在多種下游任務中表現優異。

總結來說,代表性的多模態預訓練模型包括CLIP、LLaVA、GPT-4多模態版、PaLI、BEiT-3、Flamingo、M6、Unified-IO及ImageBind等。

留言
avatar-img
留言分享你的想法!
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
15會員
391內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師 AWS Certified AI Practitioner (AIF-C01)
2025/08/19
數據對齊(Data Alignment)**主要是指在多模態或多來源數據中,把不同類型或不同時間點的數據正確匹配或關聯起來。例如在視覺語言模型中,將圖像和其對應的文字描述對齊,使模型能學會圖像和文字之間的關聯和映射。重點是準確地匹配不同數據間的內容或語義。
2025/08/19
數據對齊(Data Alignment)**主要是指在多模態或多來源數據中,把不同類型或不同時間點的數據正確匹配或關聯起來。例如在視覺語言模型中,將圖像和其對應的文字描述對齊,使模型能學會圖像和文字之間的關聯和映射。重點是準確地匹配不同數據間的內容或語義。
2025/08/19
DALL·E 是由 OpenAI 開發的文本到圖像生成模型,能根據自然語言描述(prompt)生成多樣且具有創意的數字圖像。它基於 Transformer 架構,將語言和圖像視覺內容結合,實現文字指令到圖片的轉換。 主要技術特點: • 架構組成:包括離散變分自編碼器(discrete VAE)
2025/08/19
DALL·E 是由 OpenAI 開發的文本到圖像生成模型,能根據自然語言描述(prompt)生成多樣且具有創意的數字圖像。它基於 Transformer 架構,將語言和圖像視覺內容結合,實現文字指令到圖片的轉換。 主要技術特點: • 架構組成:包括離散變分自編碼器(discrete VAE)
2025/08/19
UNITER(UNiversal Image-TExt Representation Learning)是一種專為視覺與文本多模態任務設計的預訓練模型,旨在學習統一的圖像與文本語義表示,支持視覺問答(VQA)、圖文檢索、視覺推理等多種下游任務,並在多個視覺語言基準上取得卓越表現。 UNITER 的
2025/08/19
UNITER(UNiversal Image-TExt Representation Learning)是一種專為視覺與文本多模態任務設計的預訓練模型,旨在學習統一的圖像與文本語義表示,支持視覺問答(VQA)、圖文檢索、視覺推理等多種下游任務,並在多個視覺語言基準上取得卓越表現。 UNITER 的
看更多
你可能也想看
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
2025 vocus 推出最受矚目的活動之一——《開箱你的美好生活》,我們跟著創作者一起「開箱」各種故事、景點、餐廳、超值好物⋯⋯甚至那些讓人會心一笑的生活小廢物;這次活動不僅送出了許多獎勵,也反映了「內容有價」——創作不只是分享、紀錄,也能用各種不同形式變現、帶來實際收入。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
Thumbnail
前言 讀了許多理論,是時候實際動手做做看了,以下是我的模型訓練初體驗,有點糟就是了XD。 正文 def conv(filters, kernel_size, strides=1): return Conv2D(filters, kernel_size,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News