AI說書 - 從0開始 - 349 | 第十二章引言

更新於 發佈於 閱讀時間約 1 分鐘

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


近幾年來,Transformer 模型的進展超過了過去一代的自然語言處理 (NLP) 發展,以往的 NLP 模型會先訓練理解語言的基本語法,再進行語義角色標註 (SRL),NLP 軟體包含語法樹、規則庫和解析器,而這類系統的性能受到單詞組合數量的限制,導致無限多的語境可能性,這進一步限制了系統的表現。


Shi 和 Lin 於 2019 的論文中提出了一個問題:是否可以跳過初步的語法和詞彙訓練?系統能否在不依賴預先設計的語法樹的情況下理解語言,成為“無語法”的系統?基於 BERT 的模型能否在不經過這些傳統訓練階段的情況下執行語義角色標註 (SRL)?答案是肯定的!


Shi 和 Lin 於 2019 的論文,建議語義角色標註 (SRL) 可以被視為序列標註,並提供標準化的輸入格式,自那以來,OpenAI 已經達到接近人類水平的無語法 SRL,GPT-4 不僅超越了通過訓練模型來執行 SRL,甚至超越了無語法的標註,儘管 ChatGPT 的 GPT-4 沒有專門為 SRL 訓練,它依然能夠執行 SRL。


具有 GPT-4 的 ChatGPT 是一種生成式 AI 自回歸大型語言模型,因此,GPT-4 是隨機性的;它生成序列中最可能的 Token,但不會總是重複相同的結果,這些進化將我們帶入了人工智慧中的全新思維模式,GPT-4 是無語法的(不依賴規則庫)且具有隨機性。


這種模式轉變是人工智慧未來的一次飛躍,不要尋找一個每次執行時都重複自身或顯示一致輸出的系統,而要尋找相關性,關鍵問題在於評估回應是否可靠,而不是它是否重複!正是 ChatGPT 的隨機性使它具有吸引力並更具人性化。

留言
avatar-img
留言分享你的想法!
avatar-img
Learn AI 不 BI
237會員
803內容數
這裡將提供: AI、Machine Learning、Deep Learning、Reinforcement Learning、Probabilistic Graphical Model的讀書筆記與演算法介紹,一起在未來AI的世界擁抱AI技術,不BI。
Learn AI 不 BI的其他內容
2025/04/04
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 349 | 第十二章引言 到 AI說書 - 從0開始 - 369 | 使用 ChatGPT API 執行 SRL 之範例,我們完成書籍:
2025/04/04
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 349 | 第十二章引言 到 AI說書 - 從0開始 - 369 | 使用 ChatGPT API 執行 SRL 之範例,我們完成書籍:
2025/04/03
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下提供範例,搭配於 AI說書 - 從0開始 - 363 | 使用 ChatGPT API 執行 SRL 之對話函數撰寫 建立的函數: uinput = "Perfo
Thumbnail
2025/04/03
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下提供範例,搭配於 AI說書 - 從0開始 - 363 | 使用 ChatGPT API 執行 SRL 之對話函數撰寫 建立的函數: uinput = "Perfo
Thumbnail
2025/04/02
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下提供範例,搭配於 AI說書 - 從0開始 - 363 | 使用 ChatGPT API 執行 SRL 之對話函數撰寫 建立的函數: uinput = "Perfo
Thumbnail
2025/04/02
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下提供範例,搭配於 AI說書 - 從0開始 - 363 | 使用 ChatGPT API 執行 SRL 之對話函數撰寫 建立的函數: uinput = "Perfo
Thumbnail
看更多
你可能也想看
Thumbnail
常常被朋友問「哪裡買的?」嗎?透過蝦皮分潤計畫,把日常購物的分享多加一個步驟,就能轉換成現金回饋。門檻低、申請簡單,特別適合學生與上班族,讓零碎時間也能創造小確幸。
Thumbnail
常常被朋友問「哪裡買的?」嗎?透過蝦皮分潤計畫,把日常購物的分享多加一個步驟,就能轉換成現金回饋。門檻低、申請簡單,特別適合學生與上班族,讓零碎時間也能創造小確幸。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 74 中提到,我們想要建立「Transformer 數學」與「ChatGPT 產生的文字」兩者間的關係。 有鑑於此,我們以句子「
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 74 中提到,我們想要建立「Transformer 數學」與「ChatGPT 產生的文字」兩者間的關係。 有鑑於此,我們以句子「
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Decoder
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Decoder
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 先做個總回顧: Transformer 架構總覽:AI說書 - 從0開始 - 39 Attention 意圖說明:AI說書 - 從0開始 - 40 Transfo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 先做個總回顧: Transformer 架構總覽:AI說書 - 從0開始 - 39 Attention 意圖說明:AI說書 - 從0開始 - 40 Transfo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News