機器學習模型革新 AI翻譯品質再次向前邁進

更新於 發佈於 閱讀時間約 5 分鐘
raw-image

Google 一直致力於透過機器學習改善自家翻譯系統的準確度,利用人工智慧的力量提升機器翻譯品質,並於今年八月發表新機器學習模型 Universal Transformer。隨著機器學習模型不斷演進,AI 處理翻譯時的邏輯和策略也與真人譯者越來越相似。

Google 在去年發佈了新型機器學習模型 Transformer,使得翻譯準確度和效率較循環神經網路模型(Recurrent Neural Networks, RNN)提升不少。而今年Google 則是改良了Universal模型,發表了新的 Universal Transformer 模型,讓翻譯事業更上一層樓。要瞭解這之間的運作方式,以及 Google 翻譯系統越來越強大的原因,就請各位讀者跟著小編一起讀下去囉!

首先,過去的機器翻譯系統採用循環神經網路模型處理翻譯訊息,而該模型處理訊息的機制是依照順序處理每個單字,並且將先前單字處理好的結果帶入下一個單字的分析預測中。

舉個例子來說,小明重訓時習慣分成胸 – 三頭、背 – 二頭、腿三組循環,但是重訓的時間極不固定,如果公司上班忙碌,需要加班,可能間隔好幾天才重訓;而比較不忙碌的時候,則會天天跑去重訓。

RNN 透過逐筆運算,分析發現小明的運動規律和前一次訓練的部位有關,如果前一次練背 – 二頭、下一次就會練腿,再下一次就會練胸 – 三頭,進而預測小明每天訓練的部位。如果小明今天沒去重訓呢?循環神經網路會使用小明前一次重訓的紀錄(可能是昨天或好幾天前),帶入明天的預測分析中。

到這裡我們可以發現 RNN 會依序分析資料後,形成一個資料網路,分析每筆資料間的關聯,並作出預測,但這同時也代表在長句處理時 RNN 需要的步驟較為繁複,訓練起來較費時。

相較之下,Transformer 則是利用自我注意機制(self-attention mechanism),判斷句子中的哪些單詞需要較多的運算資源,並進行處理,就像人類譯者並不是拿到文章就一路埋頭苦翻到底,而是邊分析文章中的字句,邊決定接下來如何翻譯。

文章中所舉的例子為:I arrived at the bank after crossing the river.

傳統的RNN運算模型需要逐字分析完「bank」、「river」等字後才能理出其中的關連,判斷bank指的是河堤,而非銀行。若句子拉長,兩個彼此有關聯的單詞距離較遠時,這樣的運算方式就會較耗時。

Transformer模型則是透過經驗,建立句子中所有單詞之間的關聯(與單詞相對距離無關),並判斷哪些單詞需要較多的關注,以同句子為例,Transformer模型能判斷「I」、「bank」、「river」中,「bank」有多種解釋可能,「I」和「river」則相對較無歧異。接著,為了處理歧異性較高的「bank」,Transformer 模型會去找出和「bank」關聯性較高的單字,從而找出「river」和其高度關聯,判斷「bank」的意思為河堤。

不過,在一開始對於句子裡的所有單字進行判斷時,Transformer模型需要無條件將同樣的運算量用在每個單詞,因此 Google 新發表了 Universal Transformer 模型,讓系統可以只在歧異性較高的單詞上花費較多的運算資源,使得分析過程變得更「動態」,資源分配也更有效率。

Transformer推出時,Google 研究指出其翻譯品質較先前的機器學習模型提高2.0 個 BLEU(Bilingual Evaluation Understudy)值,而在相同的訓練方式和訓練資料下,Universal Transformer 模型比起 Transformer 又提高了 0.9 個BLEU 值,整體翻譯品質和去年相比,相對提升 50%。

Universal Transformer模型提供大規模語言處理(如機器翻譯)一個更快、更準確的解決方案,翻譯結果更接近真人翻譯,而 Google 團隊也會持續努力提升Universal Transformer 模型效能。

原文連結

Google AI Blog: Moving Beyond Translation with the Universal Transformer (googleblog.com)

註:本文為 2018 9 14 日師大翻譯所臉書粉絲專頁貼文


留言
avatar-img
留言分享你的想法!
avatar-img
臺師大翻譯所 NTNU GITI的沙龍
25會員
19內容數
想知道更多有趣的翻譯書,或想透過書本更深入了解翻譯生活嗎? 喜歡閱讀、熱愛翻譯的你,千萬不能錯過我們的好書分享與深度介紹!
2022/02/10
師大翻譯所因應翻譯產業的趨勢,加開了「譯後編輯」的課程。機器翻譯就。很。破?機器翻譯後編輯-怎麼編?修多少?快來看看筆者的整理~
Thumbnail
2022/02/10
師大翻譯所因應翻譯產業的趨勢,加開了「譯後編輯」的課程。機器翻譯就。很。破?機器翻譯後編輯-怎麼編?修多少?快來看看筆者的整理~
Thumbnail
2022/02/06
美國有不少移民雖有投票權,卻因語言障礙而無法完全理解競選人的政見或是投票制度。就像是有滿腦子的想法,卻因為語言隔閡感到疏離。若這些選民得到適切的語言服務支援,說不定可能會翻轉選舉結果。
2022/02/06
美國有不少移民雖有投票權,卻因語言障礙而無法完全理解競選人的政見或是投票制度。就像是有滿腦子的想法,卻因為語言隔閡感到疏離。若這些選民得到適切的語言服務支援,說不定可能會翻轉選舉結果。
2022/02/02
Zirnstein 表示,「由於優秀的雙語能力者接觸的不只一種語言,多種語言輸入使他們必須面對更多挑戰。我們在他們的大腦活動中發現,精通第二語言的讀者能夠主動預測下文可能會出現的字詞,甚至能在判斷錯誤時盡快適應、學習,如此一來,雙語者第二外語的能力就有可能會和單一語言能力者一樣好。」
Thumbnail
2022/02/02
Zirnstein 表示,「由於優秀的雙語能力者接觸的不只一種語言,多種語言輸入使他們必須面對更多挑戰。我們在他們的大腦活動中發現,精通第二語言的讀者能夠主動預測下文可能會出現的字詞,甚至能在判斷錯誤時盡快適應、學習,如此一來,雙語者第二外語的能力就有可能會和單一語言能力者一樣好。」
Thumbnail
看更多
你可能也想看
Thumbnail
大家好,我是一名眼科醫師,也是一位孩子的媽 身為眼科醫師的我,我知道視力發展對孩子來說有多關鍵。 每到開學季時,診間便充斥著許多憂心忡忡的家屬。近年來看診中,兒童提早近視、眼睛疲勞的案例明顯增加,除了3C使用過度,最常被忽略的,就是照明品質。 然而作為一位媽媽,孩子能在安全、舒適的環境
Thumbnail
大家好,我是一名眼科醫師,也是一位孩子的媽 身為眼科醫師的我,我知道視力發展對孩子來說有多關鍵。 每到開學季時,診間便充斥著許多憂心忡忡的家屬。近年來看診中,兒童提早近視、眼睛疲勞的案例明顯增加,除了3C使用過度,最常被忽略的,就是照明品質。 然而作為一位媽媽,孩子能在安全、舒適的環境
Thumbnail
我的「媽」呀! 母親節即將到來,vocus 邀請你寫下屬於你的「媽」故事——不管是紀錄爆笑的日常,或是一直想對她表達的感謝,又或者,是你這輩子最想聽她說出的一句話。 也歡迎你曬出合照,分享照片背後的點點滴滴 ♥️ 透過創作,將這份情感表達出來吧!🥹
Thumbnail
我的「媽」呀! 母親節即將到來,vocus 邀請你寫下屬於你的「媽」故事——不管是紀錄爆笑的日常,或是一直想對她表達的感謝,又或者,是你這輩子最想聽她說出的一句話。 也歡迎你曬出合照,分享照片背後的點點滴滴 ♥️ 透過創作,將這份情感表達出來吧!🥹
Thumbnail
在 AI 研究的領域中,理解和解釋語言模型如何處理和回應特定輸入始終是一項巨大挑戰。這種復雜性不僅限於模型的規模和結構,還涉及到它們如何在內部做出決策。為了應對這一挑戰,OpenAI 推出了一款名為 Transformer Debugger (TDB) 的工具,旨在深入探索小型語言模型的行為
Thumbnail
在 AI 研究的領域中,理解和解釋語言模型如何處理和回應特定輸入始終是一項巨大挑戰。這種復雜性不僅限於模型的規模和結構,還涉及到它們如何在內部做出決策。為了應對這一挑戰,OpenAI 推出了一款名為 Transformer Debugger (TDB) 的工具,旨在深入探索小型語言模型的行為
Thumbnail
前一篇我們已經介紹了四個可以去完成的NLP專案, 7 種 NLP 專案,讓你成為自然語言處理好手 (上) 接下來我們繼續分享另外幾個很常使用的專案 機器翻譯 (Machine Translation)
Thumbnail
前一篇我們已經介紹了四個可以去完成的NLP專案, 7 種 NLP 專案,讓你成為自然語言處理好手 (上) 接下來我們繼續分享另外幾個很常使用的專案 機器翻譯 (Machine Translation)
Thumbnail
嗨,我是小譯者。從趕稿的地獄裡爬出來,第一件事就是想把中斷的ChatGPT系列寫完。距離上一篇【小譯者之眼】突擊!ChatGPT採訪實錄──「與ChatGPT對談:機器翻譯是否會取代人類?」其實才經過三個月,相關的應用程式就如雨後春筍冒出來。GPT4甚至已經能支援圖片功能,進化速度之快,令人嘖嘖稱奇
Thumbnail
嗨,我是小譯者。從趕稿的地獄裡爬出來,第一件事就是想把中斷的ChatGPT系列寫完。距離上一篇【小譯者之眼】突擊!ChatGPT採訪實錄──「與ChatGPT對談:機器翻譯是否會取代人類?」其實才經過三個月,相關的應用程式就如雨後春筍冒出來。GPT4甚至已經能支援圖片功能,進化速度之快,令人嘖嘖稱奇
Thumbnail
正文1,724字,主要跟你分享未來 AI 變更強更效率的兩個層面──數據與模型框架。你會從實務者的觀點,知道數據跟 AI (或機器學習模型) 表現間的關係;了解 ChatGPT 為什麼有運算資源的困擾;同時,你也會看到目前最新改善 AI 運算速度的技術發表。
Thumbnail
正文1,724字,主要跟你分享未來 AI 變更強更效率的兩個層面──數據與模型框架。你會從實務者的觀點,知道數據跟 AI (或機器學習模型) 表現間的關係;了解 ChatGPT 為什麼有運算資源的困擾;同時,你也會看到目前最新改善 AI 運算速度的技術發表。
Thumbnail
本文探討大型語言模型的兩種主要類型:GPT和BERT。GPT,如ChatGPT,被視為"通才",能執行多種任務。BERT則被視為"專才"的基本語言模型。兩者各有優點:專才模型在特定任務上準確度高,而通才模型靈活多功能。選擇哪種取決於需求和目標。
Thumbnail
本文探討大型語言模型的兩種主要類型:GPT和BERT。GPT,如ChatGPT,被視為"通才",能執行多種任務。BERT則被視為"專才"的基本語言模型。兩者各有優點:專才模型在特定任務上準確度高,而通才模型靈活多功能。選擇哪種取決於需求和目標。
Thumbnail
[進行中未完成] 1.簡介 本文旨在讓沒有計算機科學背景的人對ChatGPT和類似的人工智能系統 (如GPT-3、GPT-4、Bing Chat、Bard等)有一些了解。 ChatGPT是一種聊天機器人,是建立在大型語言模型之上的對話型人工智能。專業術語可能會讓人感到陌生,但此文將一一解釋這些概念。
Thumbnail
[進行中未完成] 1.簡介 本文旨在讓沒有計算機科學背景的人對ChatGPT和類似的人工智能系統 (如GPT-3、GPT-4、Bing Chat、Bard等)有一些了解。 ChatGPT是一種聊天機器人,是建立在大型語言模型之上的對話型人工智能。專業術語可能會讓人感到陌生,但此文將一一解釋這些概念。
Thumbnail
本文回答幾個問題:(一) 什麼叫做湧現;(二)湧現是什麼現象;(三)為什麼我們造不出自己的超級 AI。看完後,你會理解現在 AI 的現象跟趨勢、一些技術與專有名詞,像是參數、大型機構與他們模型的名字。
Thumbnail
本文回答幾個問題:(一) 什麼叫做湧現;(二)湧現是什麼現象;(三)為什麼我們造不出自己的超級 AI。看完後,你會理解現在 AI 的現象跟趨勢、一些技術與專有名詞,像是參數、大型機構與他們模型的名字。
Thumbnail
這篇文放草稿太久了,放到連GPT4都生出來了。不過沒差,內容通用。 在系列文第一篇,就提到了GPT框架中有對人類語意回饋的學習機制。這機制有個專有名詞,叫強化學習 (Reinforcement Learning)。這讓機器不純粹依著既有資料模式,優化並生成預測;反而讓機器有更強的能力,去因應不同環境
Thumbnail
這篇文放草稿太久了,放到連GPT4都生出來了。不過沒差,內容通用。 在系列文第一篇,就提到了GPT框架中有對人類語意回饋的學習機制。這機制有個專有名詞,叫強化學習 (Reinforcement Learning)。這讓機器不純粹依著既有資料模式,優化並生成預測;反而讓機器有更強的能力,去因應不同環境
Thumbnail
文字、語言是生活中不可或缺的一部分,而隨著網路時代的開始,我們更多的活動轉往網路、手機中,而最常見的媒介就是文字(語言)了,不論是新聞、個人心得、心情分享、論文等等,都是透過文字來表達想法。而這麼多的內容,電腦是如何呈現出我們感興趣的內容呢?那首先就是需要讓電腦能夠去解讀、使用文字這種非結構化資料,
Thumbnail
文字、語言是生活中不可或缺的一部分,而隨著網路時代的開始,我們更多的活動轉往網路、手機中,而最常見的媒介就是文字(語言)了,不論是新聞、個人心得、心情分享、論文等等,都是透過文字來表達想法。而這麼多的內容,電腦是如何呈現出我們感興趣的內容呢?那首先就是需要讓電腦能夠去解讀、使用文字這種非結構化資料,
Thumbnail
作者:陳華夫 強化學習裡最後學習的成果─價值函數 Vπ(s)─就被記憶在40模塊或20模塊組成的殘差網絡中的千千萬萬個數學參數裡,人類的大腦把輸入的資訊編碼成故事基模(Schema),再整合編織故事基模而成為的「腦神經網絡」。如此的記憶及知識之構造有利於人類的記憶、解釋、理解、思考、及學習新知。
Thumbnail
作者:陳華夫 強化學習裡最後學習的成果─價值函數 Vπ(s)─就被記憶在40模塊或20模塊組成的殘差網絡中的千千萬萬個數學參數裡,人類的大腦把輸入的資訊編碼成故事基模(Schema),再整合編織故事基模而成為的「腦神經網絡」。如此的記憶及知識之構造有利於人類的記憶、解釋、理解、思考、及學習新知。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News