我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
- AI說書 - 從0開始 - 314 | 載入文本並執行 Tokenization
- AI說書 - 從0開始 - 315 | 文本處理以降低 Tokenization 負擔
- AI說書 - 從0開始 - 316 | Tokenization 後基本資訊窺探與 Embedding 訓練
- AI說書 - 從0開始 - 317 | Embedding 模型描述
- AI說書 - 從0開始 - 318 | Embedding 模型描述
- AI說書 - 從0開始 - 319 | 檢視 Embedding 是否包含某詞彙
- AI說書 - 從0開始 - 320 | Embedding 後詞彙相似度計算
- AI說書 - 從0開始 - 321 | Embedding 後詞彙與 ID 映射
- AI說書 - 從0開始 - 322 | Embedding 後詞彙的 Cosine 相似度計算
- AI說書 - 從0開始 - 323 | Embedding 後透過 TensorFlow Projector 視覺化
- AI說書 - 從0開始 - 324 | Embedding 後透過 TensorFlow Projector 視覺化
一旦完成 AI說書 - 從0開始 - 324 | Embedding 後透過 TensorFlow Projector 視覺化 步驟後,可以看到下圖,當中每一點,就代表一個字:

也可以選擇一個字,然後依照相似度來列出其他高相似度者的字:
