AI說書 - 從0開始 - 265 | SHAP 搭配 Hugging Face

更新 發佈閱讀 2 分鐘

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


我們在 AI說書 - 從0開始 - 261 | SHAP 數學計算 中,介紹了 SHAP 的數學,也在 AI說書 - 從0開始 - 262 | SHAP 數學實作 中,實作了這些數學,而實作結果如 AI說書 - 從0開始 - 263 | SHAP 數學實作結果 所示,至於使用 Hugging Face 來達成同樣目的,則揭露於 AI說書 - 從0開始 - 264 | SHAP 搭配 Hugging Face 中,若想要知道每個字的對應 SHAP 值,則可以撰寫以下程式:

words = sentence.split(' ')
for word, shap_value in zip(words, shap_values.values[0, :, 0]):
print(f"Word: {word}, SHAP value: {shap_value}")


結果為:

raw-image


留言
avatar-img
留言分享你的想法!
avatar-img
Learn AI 不 BI
246會員
979內容數
這裡將提供: AI、Machine Learning、Deep Learning、Reinforcement Learning、Probabilistic Graphical Model的讀書筆記與演算法介紹,一起在未來AI的世界擁抱AI技術,不BI。
Learn AI 不 BI的其他內容
2024/12/28
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 247 | 第九章引言 到 AI說書 - 從0開始 - 278 | 模型視覺化極限與人為介入,我們完成書籍:Transformers f
2024/12/28
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 247 | 第九章引言 到 AI說書 - 從0開始 - 278 | 模型視覺化極限與人為介入,我們完成書籍:Transformers f
2024/12/27
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 模型的解釋已經取得了進展,但仍有許多工作要做,有些絆腳石仍然相當具有挑戰性: Embedding Sublayer 基於隨機計算,並添加到複雜
2024/12/27
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 模型的解釋已經取得了進展,但仍有許多工作要做,有些絆腳石仍然相當具有挑戰性: Embedding Sublayer 基於隨機計算,並添加到複雜
2024/12/26
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 275 | OpenAI Transformer 模型之視覺化 及 AI說書 - 從0開始 - 276 | OpenAI Transf
Thumbnail
2024/12/26
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 275 | OpenAI Transformer 模型之視覺化 及 AI說書 - 從0開始 - 276 | OpenAI Transf
Thumbnail
看更多
你可能也想看
Thumbnail
每年 12 月,我最期待的就是蝦皮的 雙12狂歡生日慶! 身為每個月都會在蝦皮買生活用品的創作者,真的有太多值得分享的愛用品。 這篇整理了我: ✔ 實際買過、覺得必須分享的 6 項愛用開箱 ✔ 今年雙12準備補貨及購入的購物清單 ✔ 省錢攻略+蝦皮分潤計畫,新手也能邊買邊賺! 📌現在加入領$1
Thumbnail
每年 12 月,我最期待的就是蝦皮的 雙12狂歡生日慶! 身為每個月都會在蝦皮買生活用品的創作者,真的有太多值得分享的愛用品。 這篇整理了我: ✔ 實際買過、覺得必須分享的 6 項愛用開箱 ✔ 今年雙12準備補貨及購入的購物清單 ✔ 省錢攻略+蝦皮分潤計畫,新手也能邊買邊賺! 📌現在加入領$1
Thumbnail
各位被生活壓得喘不過氣的勇者們,請停下你匆忙的腳步! 你是不是常常覺得:錢包是個黑洞,時間是個幻覺,每天都在執行「重複昨天的厭世」這個艱難的任務?這不是你的錯,這是你的人生被施加了幾道咒語! 今天,身為資深(但還沒躺平成功)的魔法道具蒐集家,我要公開這份能讓你的人生瞬間充滿「微幸福感」的魔法清單
Thumbnail
各位被生活壓得喘不過氣的勇者們,請停下你匆忙的腳步! 你是不是常常覺得:錢包是個黑洞,時間是個幻覺,每天都在執行「重複昨天的厭世」這個艱難的任務?這不是你的錯,這是你的人生被施加了幾道咒語! 今天,身為資深(但還沒躺平成功)的魔法道具蒐集家,我要公開這份能讓你的人生瞬間充滿「微幸福感」的魔法清單
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 有了 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配 AI說書 - 從0開始 - 388
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 有了 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配 AI說書 - 從0開始 - 388
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 也許 AI說書 - 從0開始 - 384 | Hugging Face T5 模型探索 的結果太長,我們可以透過以下程式來限縮範圍至 Decoder 範疇: if d
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 也許 AI說書 - 從0開始 - 384 | Hugging Face T5 模型探索 的結果太長,我們可以透過以下程式來限縮範圍至 Decoder 範疇: if d
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 也許 AI說書 - 從0開始 - 384 | Hugging Face T5 模型探索 的結果太長,我們可以透過以下程式來限縮範圍至 Encoder 範疇: if
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 也許 AI說書 - 從0開始 - 384 | Hugging Face T5 模型探索 的結果太長,我們可以透過以下程式來限縮範圍至 Encoder 範疇: if
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 383 | Hugging Face T5 模型探索 的內容,當中有一參數值得一提: 過多的詞彙會導致稀疏的表示,相反,詞彙量過
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 383 | Hugging Face T5 模型探索 的內容,當中有一參數值得一提: 過多的詞彙會導致稀疏的表示,相反,詞彙量過
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 本章節的內容需要從 Hugging Face 中載入 T5 模型,有鑑於此,我們首先登入頁面: https://huggingface.co/models,如下所示:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 本章節的內容需要從 Hugging Face 中載入 T5 模型,有鑑於此,我們首先登入頁面: https://huggingface.co/models,如下所示:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - 從0開始 - 261 | SHAP 數學計算 中,介紹了 SHAP 的數學,也在 AI說書 - 從0開始 - 262 | SHAP 數學實作 中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - 從0開始 - 261 | SHAP 數學計算 中,介紹了 SHAP 的數學,也在 AI說書 - 從0開始 - 262 | SHAP 數學實作 中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - 從0開始 - 261 | SHAP 數學計算 中,介紹了 SHAP 的數學,也在 AI說書 - 從0開始 - 262 | SHAP 數學實作 中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - 從0開始 - 261 | SHAP 數學計算 中,介紹了 SHAP 的數學,也在 AI說書 - 從0開始 - 262 | SHAP 數學實作 中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - 從0開始 - 261 | SHAP 數學計算 中,介紹了 SHAP 的數學,也在 AI說書 - 從0開始 - 262 | SHAP 數學實作 中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - 從0開始 - 261 | SHAP 數學計算 中,介紹了 SHAP 的數學,也在 AI說書 - 從0開始 - 262 | SHAP 數學實作 中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 針對長度 N 的句子而言,當中的第 i 個字,其 SHAP 值的計算方式為: 當中 N 個字的聯盟中,第 i 個字,且自帶價值 v 所對應的 SHAP 值
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 針對長度 N 的句子而言,當中的第 i 個字,其 SHAP 值的計算方式為: 當中 N 個字的聯盟中,第 i 個字,且自帶價值 v 所對應的 SHAP 值
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News