ELMo(Embeddings from Language Models)

更新 發佈閱讀 3 分鐘

ELMo(Embeddings from Language Models)是一種在自然語言處理(NLP)中使用的深度學習詞嵌入模型,於2018年由Allen Institute for AI及華盛頓大學提出。與傳統靜態詞向量(如Word2Vec、GloVe)不同,ELMo產生的是**「上下文相關的詞向量」**,同一個詞在不同語境下會有不同的詞表示,因而更精確捕捉詞義。

主要特色

  • 採用**雙向LSTM(Bidirectional LSTM)**語言模型,同時從句子左右兩個方向讀取語境,獲得更完整的語義表示。 使用多層深度神經網路,將不同層的表示向量結合,兼具語法與語意信息。 輸入為**字元層級(character-level)**編碼,有助於處理罕見字詞和語言變形。 輸出表示隨句子中的詞彙上下文改變,達成更靈活的語意區分,如「bank」在金融或河岸語境下會有不同向量。

運作流程

  1. ELMo模型先在大規模語料庫上訓練雙向語言模型。 利用訓練完成的模型產生上下文詞向量。 這些向量可作為下游任務(如情感分析、命名實體識別、問答系統等)的輸入特徵,提升模型表現。

優點

  • 解決了傳統固定詞向量無法反映詞義隨語境變化問題。 改善多義詞及同形異義詞辨識。 增強下游NLP任務的效果。

ELMo被視為詞表示演化中的重要里程碑,為後續Transformer架構如BERT、GPT等的發展奠定基礎。

如需深入技術細節或程式實作,也可進一步說明。ELMo(Embeddings from Language Models)是一種用於自然語言處理的深度學習詞向量模型。它利用雙向長短期記憶網路(Bi-directional LSTM)來捕捉詞彙在句子中的上下文資訊,產生上下文相關的詞嵌入向量。與傳統靜態詞向量(如Word2Vec、GloVe)不同,ELMo生成的詞向量會根據不同句子中詞的上下文語意而變化,能更精確區分同一詞在不同語境下的意思。

ELMo的特色包括:

  • 使用雙向LSTM模型,從左右兩個方向捕捉語境。 利用字元級輸入處理罕見字詞和語言變形。 多層結構融合不同層次語言信息。 利用預先訓練的語言模型產生語境化詞向量供下游任務使用。

ELMo大幅提高了詞義理解和語言任務表現,是語言模型向更深層上下文理解邁進的重要技術基石。

留言
avatar-img
留言分享你的想法!
avatar-img
郝信華 iPAS AI應用規劃師 學習筆記
21會員
495內容數
現職 : 富邦建設資訊副理 證照:經濟部 iPAS AI應用規劃師 AWS Certified AI Practitioner (AIF-C01)
2025/08/26
困惑度(Perplexity,簡稱PPL)是自然語言處理(NLP)及大型語言模型中常用來衡量模型預測能力的指標。 它的意義在於衡量模型在對一句話或一組語料作預測時的「困惑程度」或「不確定性」: 困惑度越低,表示模型對文本的預測能力越強,能較準確地猜出下一個字詞。 困惑度越高,代表模型在預測時感到
2025/08/26
困惑度(Perplexity,簡稱PPL)是自然語言處理(NLP)及大型語言模型中常用來衡量模型預測能力的指標。 它的意義在於衡量模型在對一句話或一組語料作預測時的「困惑程度」或「不確定性」: 困惑度越低,表示模型對文本的預測能力越強,能較準確地猜出下一個字詞。 困惑度越高,代表模型在預測時感到
2025/08/26
One-Hot Encoding (獨熱編碼) 核心定義 One-Hot Encoding 是一種將類別型資料 (Categorical Data) 轉換為機器學習模型能夠理解的數值格式的過程。它將每個類別都轉換成一個新的二元(0 或 1)特徵欄位。 它的核心思想是:在
2025/08/26
One-Hot Encoding (獨熱編碼) 核心定義 One-Hot Encoding 是一種將類別型資料 (Categorical Data) 轉換為機器學習模型能夠理解的數值格式的過程。它將每個類別都轉換成一個新的二元(0 或 1)特徵欄位。 它的核心思想是:在
2025/05/27
聊天機器人(Chatbot)是一種基於程式的軟體應用程式或智慧代理,旨在模擬人類的對話,讓用戶能夠透過文字、語音或其他形式的互動來進行交流。聊天機器人的目標是理解使用者的輸入,並根據預定的規則、知識庫或機器學習模型提供相應的回應或完成特定的任務。 聊天機器人的主要目標: 模擬人類對話:使用者感覺
2025/05/27
聊天機器人(Chatbot)是一種基於程式的軟體應用程式或智慧代理,旨在模擬人類的對話,讓用戶能夠透過文字、語音或其他形式的互動來進行交流。聊天機器人的目標是理解使用者的輸入,並根據預定的規則、知識庫或機器學習模型提供相應的回應或完成特定的任務。 聊天機器人的主要目標: 模擬人類對話:使用者感覺
看更多
你可能也想看
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 44說完 Embedding ,下一步就是闡述 Positional Embedding,其於原始 Transformer 架構中的角色
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 44說完 Embedding ,下一步就是闡述 Positional Embedding,其於原始 Transformer 架構中的角色
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 43中,闡述了 Embedding 的訓練方式,現在我們來看是否 Embedding 如我們預期般運作: 假設我的目標句子是
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 43中,闡述了 Embedding 的訓練方式,現在我們來看是否 Embedding 如我們預期般運作: 假設我的目標句子是
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
這篇文章討論了自然語言處理技術的發展歷程,從語言模型的引入到深度學習的應用。作者觀察到現今GPT在產出中文國學內容時的深度不足,並提出了自然語言處理領域的倫理使用和版權問題,以及對大眾的影響。最後,作者探討了個人在自然語言領域的發展可能性。
Thumbnail
這篇文章討論了自然語言處理技術的發展歷程,從語言模型的引入到深度學習的應用。作者觀察到現今GPT在產出中文國學內容時的深度不足,並提出了自然語言處理領域的倫理使用和版權問題,以及對大眾的影響。最後,作者探討了個人在自然語言領域的發展可能性。
Thumbnail
上回我們講到 Word Embedding 能夠將字詞表示從使用字典索引改成詞向量表示,且這個詞向量能夠包含一定程度上的語義訊息,今天就讓我們探討 Word Embedding 到底是如何訓練成的。
Thumbnail
上回我們講到 Word Embedding 能夠將字詞表示從使用字典索引改成詞向量表示,且這個詞向量能夠包含一定程度上的語義訊息,今天就讓我們探討 Word Embedding 到底是如何訓練成的。
Thumbnail
語言模型與文字表示以不同的方式來分析自然語言的詞語分佈及語意關係。本文章簡要介紹了語言模型、Word2vec、FastText、GloVe和Transformer等技術,並提供了實際的應用參考點,幫助讀者深入理解自然語言處理的技術。
Thumbnail
語言模型與文字表示以不同的方式來分析自然語言的詞語分佈及語意關係。本文章簡要介紹了語言模型、Word2vec、FastText、GloVe和Transformer等技術,並提供了實際的應用參考點,幫助讀者深入理解自然語言處理的技術。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News