我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
在本章結束時,您將能夠與使用者互動以顯示 Transformer 模型活動的視覺化,Transformer 的解譯工具還有很長的路要走,然而,這些新興工具將幫助開發人員和使用者了解 Transformer 模型的工作原理並提高其透明度。
本章節涵蓋:
- 安裝並運行 BertViz
- 運行 BertViz 的交互介面
- 使用 SHAP 解釋 Hugging Face Transformer 模型
- 探測法和非探測法的區別
- PCA 提醒
- Local Interpretable Model-Agnostic Explanations (LIME) 介紹
- 透過 Dictionary Learning 運行 Transformer 可視化
- 可視化低級、中級和高級依賴關係
- 可視化關鍵 Transformer 因素
- Language Interpretability Tool (LIT) 介紹
- 使用 OpenAI LLM 可視化 Transformer 模型的活動