AI說書 - 從0開始 - 260 | SHAP 物理意涵介紹

更新 發佈閱讀 1 分鐘

我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。


現在來介紹 SHAP,Hugging Face 有這項技術的互動介面,在博弈論中,Shapley 值通過“玩家”的邊際貢獻來表達總價值的分配,在一個句子中,單詞就是“玩家”,每個單詞都有一個得分,總得分就是這個遊戲的價值,每個單詞的價值是通過計算句子中所有排列的結果來確定的,目標是了解每個單詞如何改變句子的意思。


比方說句子:I love playing chess with my friends,有七個字,亦即所有的排列組合為:7 x 6 x 5 x 4 x 3 x 2 x 1 = 5040,所以當句子很長時,計算 SHAP 值就會比較困難。


留言
avatar-img
留言分享你的想法!
avatar-img
Learn AI 不 BI
246會員
1.0K內容數
這裡將提供: AI、Machine Learning、Deep Learning、Reinforcement Learning、Probabilistic Graphical Model的讀書筆記與演算法介紹,一起在未來AI的世界擁抱AI技術,不BI。
Learn AI 不 BI的其他內容
2024/12/28
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 247 | 第九章引言 到 AI說書 - 從0開始 - 278 | 模型視覺化極限與人為介入,我們完成書籍:Transformers f
2024/12/28
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 247 | 第九章引言 到 AI說書 - 從0開始 - 278 | 模型視覺化極限與人為介入,我們完成書籍:Transformers f
2024/12/27
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 模型的解釋已經取得了進展,但仍有許多工作要做,有些絆腳石仍然相當具有挑戰性: Embedding Sublayer 基於隨機計算,並添加到複雜
2024/12/27
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 模型的解釋已經取得了進展,但仍有許多工作要做,有些絆腳石仍然相當具有挑戰性: Embedding Sublayer 基於隨機計算,並添加到複雜
2024/12/26
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 275 | OpenAI Transformer 模型之視覺化 及 AI說書 - 從0開始 - 276 | OpenAI Transf
Thumbnail
2024/12/26
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 275 | OpenAI Transformer 模型之視覺化 及 AI說書 - 從0開始 - 276 | OpenAI Transf
Thumbnail
看更多
你可能也想看
Thumbnail
生產力爆發帶來的過剩,會讓過去的「還可以啦」成為最低標準。市場需求對於出類拔萃、獨一無二的需求還是存在,但是對於那些價格高度敏感,或是只需要穩定、便宜、還可以啦的需求端來說,AI 正在迅速取代這部分的供給,中間長尾的服務提供者被 AI 替換。
Thumbnail
生產力爆發帶來的過剩,會讓過去的「還可以啦」成為最低標準。市場需求對於出類拔萃、獨一無二的需求還是存在,但是對於那些價格高度敏感,或是只需要穩定、便宜、還可以啦的需求端來說,AI 正在迅速取代這部分的供給,中間長尾的服務提供者被 AI 替換。
Thumbnail
今年在 Google I/O 有幸看到 Hassabis 本人幾秒,DeepMind 和共同創辦人 Demis Hassabis 的這個題目,也一直都在待寫清單中。 前陣子,在介紹 Founders Fund 時,發現 Demis Hassabis 當初在說服 Peter Thiel 投資 Dee
Thumbnail
今年在 Google I/O 有幸看到 Hassabis 本人幾秒,DeepMind 和共同創辦人 Demis Hassabis 的這個題目,也一直都在待寫清單中。 前陣子,在介紹 Founders Fund 時,發現 Demis Hassabis 當初在說服 Peter Thiel 投資 Dee
Thumbnail
年末總有一種莫名的魔力,讓人特別容易感到孤單。 聖誕節、跨年、緊接著農曆新年……滑開社群,不是甜蜜放閃,就是一群人早早訂好跨年行程。 明明日子算得上順遂,工作穩定無憂,生活也按部就班地往前走着,可總在萬籟俱寂的夜晚,獨自對着空蕩的房間時,心底會悄悄冒出一個念頭:今年,是不是可以不一樣?不再獨自抵
Thumbnail
年末總有一種莫名的魔力,讓人特別容易感到孤單。 聖誕節、跨年、緊接著農曆新年……滑開社群,不是甜蜜放閃,就是一群人早早訂好跨年行程。 明明日子算得上順遂,工作穩定無憂,生活也按部就班地往前走着,可總在萬籟俱寂的夜晚,獨自對着空蕩的房間時,心底會悄悄冒出一個念頭:今年,是不是可以不一樣?不再獨自抵
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 使用 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配以下文本,可以進行文本總結功能:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 有了 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配 AI說書 - 從0開始 - 388
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 有了 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的彙整函數,搭配 AI說書 - 從0開始 - 388
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 也許 AI說書 - 從0開始 - 384 | Hugging Face T5 模型探索 的結果太長,我們可以透過以下程式來限縮範圍至 Encoder 範疇: if
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 也許 AI說書 - 從0開始 - 384 | Hugging Face T5 模型探索 的結果太長,我們可以透過以下程式來限縮範圍至 Encoder 範疇: if
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 383 | Hugging Face T5 模型探索 的內容,當中有一參數值得一提: 過多的詞彙會導致稀疏的表示,相反,詞彙量過
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 383 | Hugging Face T5 模型探索 的內容,當中有一參數值得一提: 過多的詞彙會導致稀疏的表示,相反,詞彙量過
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 本章節的內容需要從 Hugging Face 中載入 T5 模型,有鑑於此,我們首先登入頁面: https://huggingface.co/models,如下所示:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 本章節的內容需要從 Hugging Face 中載入 T5 模型,有鑑於此,我們首先登入頁面: https://huggingface.co/models,如下所示:
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - 從0開始 - 261 | SHAP 數學計算 中,介紹了 SHAP 的數學,也在 AI說書 - 從0開始 - 262 | SHAP 數學實作 中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - 從0開始 - 261 | SHAP 數學計算 中,介紹了 SHAP 的數學,也在 AI說書 - 從0開始 - 262 | SHAP 數學實作 中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - 從0開始 - 261 | SHAP 數學計算 中,介紹了 SHAP 的數學,也在 AI說書 - 從0開始 - 262 | SHAP 數學實作 中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - 從0開始 - 261 | SHAP 數學計算 中,介紹了 SHAP 的數學,也在 AI說書 - 從0開始 - 262 | SHAP 數學實作 中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - 從0開始 - 261 | SHAP 數學計算 中,介紹了 SHAP 的數學,也在 AI說書 - 從0開始 - 262 | SHAP 數學實作 中,
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - 從0開始 - 261 | SHAP 數學計算 中,介紹了 SHAP 的數學,也在 AI說書 - 從0開始 - 262 | SHAP 數學實作 中,
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News