我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
回顧 AI說書 - 從0開始 - 87 說:Wang 等人 2019 年的論文,提供了合理答案的選擇 (Choice of Plausible Answers, COPA) 任務,Transformer 必須選擇問題的最合理的答案,資料集提供了前提,Transformer 模型必須找到最合理的答案。
在 AI說書 - 從0開始 - 88 介紹了:
- Boolean Question Task (BoolQ):BoolQ 是 Boolean 是或否回答任務
- Commitment Bank (CB):要求 Transformer 模型讀取一個前提,然後檢查基於該前提的假設,Transformer 必須將假設標記為中性、蘊含或前提的矛盾等
以下繼續介紹 Wang 等人 2019 年的論文所提出的其他任務:
- Multi-Sentence Reading Comprehension (MultiRC):要求模型閱讀文本並從多個可能的選項中進行選擇,模型包含一段文字、幾個問題以及帶有 0(假)或 1(真)標籤的每個問題的可能答案,我們來看 train.jsonl 中的第二個樣本:
圖片出自書籍:Transformers for Natural Language Processing and Computer Vision, 2024
以上是文本,問題與解答的形式如下:
圖片出自書籍:Transformers for Natural Language Processing and Computer Vision, 2024