AI說書 - 從0開始 - 393 | Hugging Face T5 模型與 ChatGPT 比較

AI說書 - 從0開始 - 393 | Hugging Face T5 模型與 ChatGPT 比較

更新於 發佈於 閱讀時間約 1 分鐘

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


在進行摘要的過程中,選擇 T5 或 ChatGPT(GPT-4)將始終取決於你實施的項目,Hugging Face 的 T5 模型以其文本到文本的方式提供了許多優勢,而 ChatGPT 也已證明其效率,最終,項目的需求將決定你會選擇哪個模型。


本節的目的是比較 T5 和 ChatGPT 的摘要方法,而不是它們的性能,因為性能取決於需要你自行評估的因素:數據集、超參數、項目範疇以及其他項目層級的考量。


T5 的訓練方法是採用「文本到文本」的形式,T5 將每個任務都重新定義為一個文本問題,並添加前綴來引導句子的進展,例如「summarize: The dog was playing in the garden(總結:狗在花園裡玩耍)」。


而 ChatGPT 的訓練方法則是一個完整的方法,任務是預測序列中的下一個 token,摘要將基於文本的上下文,並將指令添加到提示中,然後它生成摘要,以繼續由提示開始的對話序列。


ChatGPT 不需要針對摘要等特定任務的參數設定,儘管它不是專門針對某一任務的模型,它依然是一個完整模型,根據它對語言、上下文及所提供指令的理解來延續序列,反觀 T5 模型則需要 Task-Specific 參數:

raw-image


avatar-img
Learn AI 不 BI
219會員
573內容數
這裡將提供: AI、Machine Learning、Deep Learning、Reinforcement Learning、Probabilistic Graphical Model的讀書筆記與演算法介紹,一起在未來AI的世界擁抱AI技術,不BI。
留言
avatar-img
留言分享你的想法!
Learn AI 不 BI 的其他內容
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 為了後續方面,我們建立一個對話函數,這樣每次只要呼叫該函數即能完成對話: def dialog(uinput): role = "user" line = {"r
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想要使用 ChatGPT 進行文章總結,首先載入必要依賴: try: import openai from openai import OpenAI exc
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們也可以用 Hugging Face 上之 T5 模型進行翻譯,實踐方法為: !pip install transformers -qq !pip install
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 為了後續方面,我們建立一個對話函數,這樣每次只要呼叫該函數即能完成對話: def dialog(uinput): role = "user" line = {"r
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想要使用 ChatGPT 進行文章總結,首先載入必要依賴: try: import openai from openai import OpenAI exc
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們也可以用 Hugging Face 上之 T5 模型進行翻譯,實踐方法為: !pip install transformers -qq !pip install