2024-11-13|閱讀時間 ‧ 約 0 分鐘

AI說書 - 從0開始 - 248 | 第九章總覽

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


在本章結束時,您將能夠與使用者互動以顯示 Transformer 模型活動的視覺化,Transformer 的解譯工具還有很長的路要走,然而,這些新興工具將幫助開發人員和使用者了解 Transformer 模型的工作原理並提高其透明度。


本章節涵蓋:

  • 安裝並運行 BertViz
  • 運行 BertViz 的交互介面
  • 使用 SHAP 解釋 Hugging Face Transformer 模型
  • 探測法和非探測法的區別
  • PCA 提醒
  • Local Interpretable Model-Agnostic Explanations (LIME) 介紹
  • 透過 Dictionary Learning 運行 Transformer 可視化
  • 可視化低級、中級和高級依賴關係
  • 可視化關鍵 Transformer 因素
  • Language Interpretability Tool (LIT) 介紹
  • 使用 OpenAI LLM 可視化 Transformer 模型的活動
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.