我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
- AI說書 - 從0開始 - 314 | 載入文本並執行 Tokenization
- AI說書 - 從0開始 - 315 | 文本處理以降低 Tokenization 負擔
- AI說書 - 從0開始 - 316 | Tokenization 後基本資訊窺探與 Embedding 訓練
- AI說書 - 從0開始 - 317 | Embedding 模型描述
- AI說書 - 從0開始 - 318 | Embedding 模型描述
- AI說書 - 從0開始 - 319 | 檢視 Embedding 是否包含某詞彙
- AI說書 - 從0開始 - 320 | Embedding 後詞彙相似度計算
- AI說書 - 從0開始 - 321 | Embedding 後詞彙與 ID 映射
- AI說書 - 從0開始 - 322 | Embedding 後詞彙的 Cosine 相似度計算
- AI說書 - 從0開始 - 323 | Embedding 後透過 TensorFlow Projector 視覺化
- AI說書 - 從0開始 - 324 | Embedding 後透過 TensorFlow Projector 視覺化
- AI說書 - 從0開始 - 325 | Embedding 後透過 TensorFlow Projector 視覺化
延續 AI說書 - 從0開始 - 325 | Embedding 後透過 TensorFlow Projector 視覺化 的操作後,亦會產生下圖進行視覺化,而濃縮高維度 Embedding 至低維度視覺化,採用的方式為 Principal Component Analysis:
