2024-06-29|閱讀時間 ‧ 約 25 分鐘

AI說書 - 從0開始 - 66

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


先做個總回顧:


至此講完 Transformer 的 Encoder 部分,而 Decoder 架構如下:

  • 原始 Google 的 Transformer 論文中,其於 Decoder 內,一樣配置 N = 6
  • 一個 Decoder Layer 中,包含三個 Sublayer ,其分別為:
    1. Multi-Headed Masked Attention Mechanism
    2. Multi-Headed Attention Mechanism
    3. Fully Connected Position-Wise Feedforward Network


分享至
成為作者繼續創作的動力吧!
這頻道將提供三分鐘以內長度的AI知識,讓你一天學一點AI知識,每天進步一點
© 2024 vocus All rights reserved.