2024-06-29|閱讀時間 ‧ 約 22 分鐘

AI說書 - 從0開始 - 65

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


接著來談 Transformer 架構中的 Feedforward Network (FFN):

  • 其為全連接的神經網路架構
  • 回顧 AI說書 - 從0開始 - 64 ,知 Add & Norm 的輸出維度為 3 x 512 ,其中 3 為文字個數,而接續的 Feedforward 是對每個字的 512 維度均做相同的事情,亦即 Position-Wise Network
  • 原始 Google 的 Transformer 論文,對 Feedforward Network 的 Hidden 數目安排是:512 -> 2048 -> 512,所以數學來看就是:FFN(x) = max(0, xW1 + b1) W2 + b2
分享至
成為作者繼續創作的動力吧!
這頻道將提供三分鐘以內長度的AI知識,讓你一天學一點AI知識,每天進步一點
© 2024 vocus All rights reserved.