更新於 2024/06/09閱讀時間約 1 分鐘

AI說書 - 從0開始 - 7

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


回顧我們在AI說書 - 從0開始 - 6中說當Context長度是n,且每個字用d維度的向量表示時有以下結論:

  • Attention Layer的複雜度是O(n^2 * d)
  • Recurrent Layer的複雜度是O(d^2 * n)

這些資料出自於ChatGPT的關鍵技術 - Transformer的原始Google論文:Attention is All You Need, Vaswani et al. (2017)


現在目標是想要用Python來做模擬,延續使用Meta釋出的模型,實作Chat GPT - Part 0的Google Colab設定,我們開始做程式環境設定:

import numpy as np
import time

# Define the sequence length and representation dimensionality

n = 512
d = 512
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.