Embedding
含有「Embedding」共 2 篇內容
全部內容
發佈日期由新至舊
Kiki的沙龍
2025/10/12
關於 Transformer 架構中的Attention 機制
自從 LLM 問世以來,其對問題的理解力與回覆品質已達到足以應用於日常工作的水準。本文原本想完整介紹 LLM 的運作原理,但內容過於龐大,因此本文僅聚焦在 Transformer 架構中的 Attention 機制,從「Token 嵌入向量」開始。本文適合具備基本線性代數與神經網路概念的讀者閱讀。
#
神經
#
Transformer
#
GPT-5
1
留言
Bsh的沙龍
2025/01/14
以小搏大【2022/12】
AI 產圖模型太大了,重新訓練耗電腦設備,而新算法可以降低訓練成本、現在就算個人電腦也有機會訓練 LoRA ,讓 SD 模型去"畫"模型沒學過的東西啦 !
#
AI
#
AI繪圖
#
AI創作
2
留言