BERT
含有「BERT」共 126 篇內容
全部內容
發佈日期由新至舊
Learn AI 不 BI
2024/11/23
AI說書 - 從0開始 - 255 | Attention Head 輸出機率檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 有了 AI說書 - 從0開始 - 254 | Attention Head 輸出機率檢視 的準備,我們可以撰寫以下程式來檢視 Attention Head 的輸出機率:
#
AI
#
ai
#
PromptEngineering
4
留言
Learn AI 不 BI
2024/11/21
AI說書 - 從0開始 - 254 | Attention Head 輸出機率檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 為了檢視 Attention Head 輸出機率,我們撰寫以下程式: !pip install transformers from transformers impo
#
AI
#
ai
#
PromptEngineering
14
1
Maya
2
雖然100%看不懂🙁,但還是肯定分享的心意,按❤️。
Learn AI 不 BI
2024/11/18
AI說書 - 從0開始 - 253 | Attention 模型視覺化
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如果我們想要獲得 Transformer 的模型觀點,只需要撰寫以下程式碼: model_view(attention, tokens, sentence_b_sta
#
AI
#
ai
#
PromptEngineering
9
留言
Learn AI 不 BI
2024/11/17
AI說書 - 從0開始 - 252 | Attention Head 視覺化
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 251 | Attention Head 視覺化 對 BertViz 的操作,如果我們點選 「cats」一詞,會得到以下結果圖: 其
#
AI
#
ai
#
PromptEngineering
10
留言
Learn AI 不 BI
2024/11/16
AI說書 - 從0開始 - 251 | Attention Head 視覺化
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 250 | Attention Head 視覺化 的內容,接著開始分析,兩列標記上方的每種顏色代表 Layer Number 的一個注
#
AI
#
ai
#
PromptEngineering
14
留言
Learn AI 不 BI
2024/11/15
AI說書 - 從0開始 - 250 | Attention Head 視覺化
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在 AI說書 - 從0開始 - 249 | BertViz 安裝 中已經準備好所有的素材了,包含 BertViz 的安裝,以及資料準備,現在可以展開視覺化之旅:
#
AI
#
ai
#
PromptEngineering
15
留言
Learn AI 不 BI
2024/11/14
AI說書 - 從0開始 - 249 | BertViz 安裝
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Jesse Vig 的文章 A Multiscale Visualization of Attention in the Transformer Model, 2019
#
AI
#
ai
#
PromptEngineering
8
留言
Learn AI 不 BI
2024/11/13
AI說書 - 從0開始 - 248 | 第九章總覽
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在本章結束時,您將能夠與使用者互動以顯示 Transformer 模型活動的視覺化,Transformer 的解譯工具還有很長的路要走,然而,這些新興工具將幫助開發人員
#
AI
#
ai
#
PromptEngineering
10
留言
Learn AI 不 BI
2024/11/12
AI說書 - 從0開始 - 247 | 第九章引言
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 數百萬到萬億參數的 Transformer 模型,例如 ChatGPT 和 GPT-4,似乎是無法穿透的黑盒子,沒有人可以解釋,因此,許多開發人員和使用者在處理這些令人
#
AI
#
ai
#
PromptEngineering
8
留言
Learn AI 不 BI
2024/11/11
AI說書 - 從0開始 - 244 | 第八章額外閱讀項目
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 227 | 第八章引言 到 AI說書 - 從0開始 - 243 | 微調 GPT 模型與 GPT4 比較,我們完成書籍:Transfor
#
AI
#
ai
#
PromptEngineering
13
留言