AI說書 - 從0開始 - 399 | 第十三章額外閱讀

AI說書 - 從0開始 - 399 | 第十三章額外閱讀

更新於 發佈於 閱讀時間約 4 分鐘

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


在本章中,我們看到 T5 Transformer 模型如何將原始 Transformer 的編碼器和解碼器堆疊的輸入進行了標準化,原始 Transformer 架構中,每個編碼器和解碼器堆疊的區塊(或層)的結構都是相同的,然而,原始 Transformer 對於 NLP 任務並沒有一個標準化的輸入格式。


Raffel 等人於 2018 年透過定義一個文本到文本(text-to-text)模型,為各種 NLP 任務設計了一個標準輸入,他們在輸入序列中添加了一個前綴,來指示需要解決的 NLP 問題類型,這樣便形成了一個標準的文本到文本格式,於是,Text-To-Text Transfer Transformer(T5)誕生了,這看似簡單的進化使得可以使用相同的模型和超參數來處理各種 NLP 任務,T5 的發明將 Transformer 模型的標準化過程推進了一步。


我們實現了一個可以摘要任意文本的 T5 模型,我們將該模型測試於不屬於現成訓練數據集的文本上,結果相當有趣,但我們也發現了 Transformer 模型的一些限制,正如 Raffel 等人於 2018 年所預測的那樣,接著,我們比較了 T5 和 ChatGPT 用於摘要的方式,這樣做的目的不是為了展示哪個模型更優越,而是為了理解它們之間的差異。


AI說書 - 從0開始 - 373 | 第十三章引言AI說書 - 從0開始 - 398 | 使用 ChatGPT 進行文章總結,我們完成書籍:Transformers for Natural Language Processing and Computer Vision, Denis Rothman, 2024 第十三章說明。


以下附上參考項目:


以下附上額外閱讀項目:

avatar-img
Learn AI 不 BI
219會員
573內容數
這裡將提供: AI、Machine Learning、Deep Learning、Reinforcement Learning、Probabilistic Graphical Model的讀書筆記與演算法介紹,一起在未來AI的世界擁抱AI技術,不BI。
留言
avatar-img
留言分享你的想法!
Learn AI 不 BI 的其他內容
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數,搭配 AI說書 - 從0開始 - 396 | 使用
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數,搭配 AI說書 - 從0開始 - 396 | 使用
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想利用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數對文章進行總結功能,以下先載入文章: Text:
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數,搭配 AI說書 - 從0開始 - 396 | 使用
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數,搭配 AI說書 - 從0開始 - 396 | 使用
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想利用 AI說書 - 從0開始 - 395 | 使用 ChatGPT 進行文章總結 中撰寫的 ChatGPT 彙整函數對文章進行總結功能,以下先載入文章: Text: