Transformer中的Encoder Decoder與Cross Attention介紹

閱讀時間約 6 分鐘

首先我們可以先回顧一下seq2seq的問題,sequence-to-sequence指的就是當我們輸入sequence之後,輸出也應該是sequence。但輸出的sequence有幾種size:

  1. 與輸入的sequence一樣size
  2. 只有一個值
  3. 我們不知道長度 -> 由model決定。EX: 輸入聲音訊號->轉為文字


Q: 那有哪些可以使用seq2seq的模型呢?

語音辨識、翻譯、聊天機器人、NLP問題(sentiment analysis, context, QA)。

*NLP: Natural Language Processing,很多也可以想成是QA的問題。也就是讓機器讀一段文字,然後我們詢問機器問題,他給我們答案。

*sentiment analysis: 透過一個句子判斷正面還是負面的問題。

但要注意的是,雖然seq2seq可以解決很多問題,但很多時候客製化模型會更好解決問題。EX: 像是pixel 4的語音轉文字就是使用RNN,而不是seq2seq。


那seq2seq要怎麼做呢?

通常會分成兩塊,一個Encoder搭配一個Decoder。那在transformer中使用的Encoder,就是上一篇講到的self-attention。

raw-image

Encoder

  1. 先將我們的輸入經過一次self attention,再將self attention的output + input得到一組output。 (*將output + input的過程,稱為residual connection。)
  2. 接著將output進行layer normalization,得到一組normalization output。
  3. 最後將這組normalization output輸入fully connected Network並與這組值與output相加,才會得到我們的輸出。
  4. 最後再一次的進行layer normalization
  5. 完成以上四個過程,才被稱為一次Encoder的輸出。
raw-image


*比較layer normalization與batch normalization:

Layer normalization是針對同一組計算其平均與標準差

batch normalization則是對不同feature中同一個dimension的值計算平均與標準差。

假設有三組output: [a1 a2 a3] [b1 b2 b3] [c1 c2 c3]。

Batch normalization的means: a1 + b1 + c1

Layer normalization的means: a1 + a2 + a3.


AutoRegressive Decoder

在Encoder的最後,會輸出一段vector sequence,此時我們把vector sequence當作decoder的輸入。

Decoder的運作方式:

假設我們有個語音訊息"機器學習"要輸出成文字,此時我們必須先有一個BOS(beginning of sentence)作為初始的輸入,經過Decoder之後會產生一組機率分布,機率最高的就是我們的輸出。之後,再將Decoder的輸出作為下一個輸入,以此類推,就會產生一連串的輸出。


Masked Multi-Head Attention

上圖比較encoder與decoder之後,我們會發現兩者有個明顯的差別,那就是decoder的multi-Head Attention多了一個Masked,這個Masked的意思就是當我們在計算self-attention時,只在意自己與前面已經考慮過的input,只考慮到目前為止input的關聯性。

Ex:

輸出的b1只能由輸入a1決定; 輸出的b2只能由a1, a2決定。

會這麼做的原因很簡單,因為我們在考慮輸入的時候,是必須依靠前一個輸出來決定。


那我們該如何決定一個輸出sequence的長度呢?

額外準備一個中斷的token "END",當我們接收到輸入“習”時,讓"END"的機率成為最大,就能夠中斷decoder。

raw-image


Non-AutoRegressive Decoder Model(NAT)

autoRegressive Decoder是從輸入Begin開始,依序輸入得到輸出,在拿輸出當輸入以此類推得到答案。

Non-AutoRegressive Decoder則是同時平行輸入多個Begin,這樣就會平行生成多個輸出。

那這種方式就沒辦法簡單決定其輸出的長度,所以我們可以採用兩種方式決定:

  1. 另外訓練一個classification,輸入Encoder的input,得到需要幾個字在告訴Decoder。
  2. 直接人為決定要留下幾個字。

特點:

  1. 平行輸出
  2. 速度較快
  3. 但Performance沒有AT的performance好


Cross Attention

Cross Attention是連接Encoder與Decoder之間的橋樑。

運作方式:

  1. Decoder先輸入BEGIN產生一個q值
  2. Encoder輸出的向量,分別產生個別的k,與q相乘,得到關聯系數𝛼
  3. 將𝛼透過normalization產生𝛼’
  4. 最後𝛼’ 乘上v加總,經過Fully Connected
  5. 結果才放進後續Decoder的計算
raw-image


Training

那如果我們要訓練Transformer,我們的目標會是希望在BEGIN輸入Decoder之後,產生出的向量與我們希望的值的值越接近越好。而通常我們會將每個字設定為one-hot vector。假設“機” = [1 0 0 0]T,那就希望Decoder產生的機率分佈會是接近one-hot vector的。(我們可以想像成分類問題)

raw-image


Teacher Forcing

在輸入decoder時,額外多輸入正確答案(Ground Truth),能夠幫助transformer更好訓練。假設是“機器學習”四個字,我們可以輸入“機”,然後要求機器輸出“器”,以此訓練。

但這也可以注意一下,有時會有一種訓練的結果與實際測試的結果不一致的狀況,這被稱為exposure bias。

那解決的方法就是在Teacher Forcing時,加入一點雜訊,讓他沒那麼好訓練,這被稱為schedule sampling。


Copy Mechanism

那有些任務,Decoder不需要從input生成文字出來,而是要從input複製出來。

Ex: 在聊天機器人中,就會需要複製的能力。

假設我們說:我是“庫洛洛” → 機器需要回答“你好!庫洛洛”。


那以上是關於今天Transformer中的Encoder Decoder與Cross Attention的介紹。

1會員
12內容數
留言0
查看全部
發表第一個留言支持創作者!
你可能也想看
LLM 006|BERT與GPT是怎麼從Transformer演化來的?在上一期「LLM 005|大語言模型是如何利用Transformer理解語言的?」我們提到,Transformer是大語言模型理解語言的關鍵。 而Transformer架構兩個主要的後代是BERT以及GPT。 BERT是bidirectional encoder representati
avatar
王啟樺
2024-04-28
LLM 005|大語言模型是如何利用Transformer理解語言的?現代大語言模型建構於Transformer結構。 Transformer結構是源自於2017年著名論文 Attention Is All You Need的深度神經網路結構。 原始的Trasformer是為了機器翻譯發展,當初的任務是將英文翻譯成德文與法文。 Transformer
avatar
王啟樺
2024-04-27
探索OpenAI的Transformer Debugger:開啟語言模型透明度的新篇章在 AI 研究的領域中,理解和解釋語言模型如何處理和回應特定輸入始終是一項巨大挑戰。這種復雜性不僅限於模型的規模和結構,還涉及到它們如何在內部做出決策。為了應對這一挑戰,OpenAI 推出了一款名為 Transformer Debugger (TDB) 的工具,旨在深入探索小型語言模型的行為
Thumbnail
avatar
一二三
2024-03-13
Set Goals God's Way • Transformed • Ep. 6 如何以上帝的方式來設定目標摘要 這段內容講述了為人生設定目標的重要性,並解釋了如何以上帝的方式來設定目標,以及這些目標如何影響個人的生活、信仰和品格成長。 重點 - [🎯] 聖經告訴我們,設定目標是為了未來,並引述了耶穌和使徒保羅設定目標的例子。 - [💡] 目標使人有希望、有動力
Thumbnail
avatar
Mr. gary
2024-03-12
【變形金剛Transformers】:會變形的機器人,永遠的憧憬在翻Netflix有什麼片可以看的時候,居然看到《變形金剛》。其實小時候在第二集、第三集、第四集上映的時候都有去看過(不過也超級久,大部分的內容都不記得了,之後再慢慢看回來然後記錄下來),首集倒是一直沒看。
Thumbnail
avatar
Pin
2023-12-19
需時間驗證的Transformer挑戰者,Mamba (Albert Gu & Tri Dao) 本篇文章為大家導讀近日火熱的Mamba Paper,新聞標題說它是Transformer的繼任者,是否真是如此? 讓我們一起一探究竟,本文著重介紹論文前半部分。
Thumbnail
avatar
無限智慧學院
2023-12-12
Google已經獲得Transformer專利從推出至今,Transformer 已成為眾多模型的核心模組,例如大家熟悉的BERT、T5 等都有Transformer 的身影。 就連近段時間爆火的ChatGPT 也依賴Transformer,後者早已被Google申請了專利。
Thumbnail
avatar
男子漢聊AI
2023-10-18
《五分鐘內藉由transformer(變形金剛)字根,統整TOEIC十五組常考詞彙》你是否想過將耳熟能詳的transformer(變形金剛)這個英文生字,藉由「拆字、字根」方法,熟背以下十五組TOEIC常考詞彙?每日花五分鐘,將熟悉的工商英文,藉由「字根、拆字、思學答」邏輯性推演過程,是自學英文最有效的方法。
Thumbnail
avatar
Jenny Hsu
2023-03-12
用 transformers 的 pipeline 快速進行中文填字今天開始啃在中文資料使用 BERT 相關的一些資料,因為時間不太夠就先簡單的挑個小任務來玩:中文填字遊戲
Thumbnail
avatar
Ofa Hsueh
2020-04-09