2024-07-31|閱讀時間 ‧ 約 23 分鐘

AI說書 - 從0開始 - 109 | BLEU 評分機制前言

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


總結一下目前有的素材:


法語數據集的每一行都是需要翻譯的句子,英語數據集的每一行都是機器翻譯模型的參考翻譯,機器翻譯模型必須生成一個英語候選翻譯,以匹配這個參考翻譯,BLEU 提供了一種方法來評估機器翻譯模型生成的候選翻譯。


Papineni 等人於 2002 年設計了一種有效的方法來評估人工翻譯,人工基準很難定義,然而,他們意識到,如果我們將人工翻譯與機器翻譯逐字比較,可以獲得有效的結果,Papineni 稱其方法為:Bilingual Evaluation Understudy Score (BLEU),我們想用 Natural Language Toolkit (NLTK) 來實作 BLEU,詳見:

http://www.nltk.org/api/nltk.translate.html#nltk.translate.bleu_score.sentence_bleu


BLEU 方法將部分候選句子與一個或多個參考句子進行比較,以下先載入必要的依賴庫:

from nltk.translate.bleu_score import sentence_bleu
from nltk.translate.bleu_score import SmoothingFunction
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.