2024-12-02|閱讀時間 ‧ 約 0 分鐘

AI說書 - 從0開始 - 259 | Attention Head 輸出機率檢視

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


我們在 AI說書 - 從0開始 - 257 | Attention Head 輸出機率檢視 中,撰寫了程式,試圖視覺化 Attention Head 輸出機率,以下開始檢視成果,這是一個互動式介面,比方說選擇 Layer = 9、Head = 9,得到以下結果:


字詞 “values” 和目標詞 “attention” 之間的關係高於 “values” 和 “the” 之間的關係,看得出來模型有在學習。

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.