ML
含有「ML」共 459 篇內容
全部內容
發佈日期由新至舊
Learn AI 不 BI
2025/01/21
AI說書 - 從0開始 - 301 | Sentence Piece Tokenization 展示
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Sentence Piece Tokenizer 在 Unigram 語言模型 Tokenizer (見 AI說書 - 從0開始 - 300 | Unigram Lan
#
AI
#
ai
#
PromptEngineering
5
留言
Learn AI 不 BI
2025/01/20
AI說書 - Prompt Engineering - 157 | 自動輸出細化範例 2
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 此內容接續 AI說書 - Prompt Engineering - 156 | 自動輸出細化範例 2
#
AI
#
ai
#
PromptEngineering
7
留言
Learn AI 不 BI
2025/01/19
AI說書 - 從0開始 - 300 | Unigram Language Model Tokenization 訓練展示
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Unigram 語言模型分詞由 Google 開發,它使用 Subword 單元進行訓練,並會丟棄不常見的單元,Unigram 語言模型 Tokenization 是隨
#
AI
#
ai
#
PromptEngineering
9
留言
Learn AI 不 BI
2025/01/18
AI說書 - 從0開始 - 299 | Subword Tokenizer 引言
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 模型是大規模的大型語言模型 (LLMs),模型的規模和它們執行的任務數量需要高效的 Tokenizer,Subword Tokenizer 是
#
AI
#
ai
#
PromptEngineering
13
留言
Learn AI 不 BI
2025/01/17
AI說書 - 從0開始 - 298 | 各 Tokenizer 之展示
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 295 | 各 Tokenizer 之優勢與安裝、AI說書 - 從0開始 - 296 | 各 Tokenizer 之展示、AI說書 -
#
AI
#
ai
#
PromptEngineering
10
留言
Learn AI 不 BI
2025/01/16
AI說書 - 從0開始 - 297 | 各 Tokenizer 之展示
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 295 | 各 Tokenizer 之優勢與安裝 及 AI說書 - 從0開始 - 296 | 各 Tokenizer 之展示,我們繼續
#
AI
#
ai
#
PromptEngineering
7
留言
Learn AI 不 BI
2025/01/15
AI說書 - 從0開始 - 296 | 各 Tokenizer 之展示
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 295 | 各 Tokenizer 之優勢與安裝 安裝的各種 Tokenizer,我們來展示其用處: Sentence Toke
#
AI
#
ai
#
PromptEngineering
9
留言
Learn AI 不 BI
2025/01/14
AI說書 - 從0開始 - 295 | 各 Tokenizer 之優勢與安裝
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 模型通常使用 Byte-Pair Encoding (BPE) 和 WordPiece Tokenization,接著,我們將了解為什麼選擇 S
#
AI
#
ai
#
PromptEngineering
7
留言
Learn AI 不 BI
2025/01/13
AI說書 - 從0開始 - 294 | Tokenizer 重要性範例之展示 6
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 替換生僻字詞本身就是一個項目,這項工作是為特定任務和項目保留的,例如,假設公司預算可以支付建立航空知識庫的成本,在這種情況下,值得花時間查詢 Tokenized Dir
#
AI
#
ai
#
PromptEngineering
7
留言
Learn AI 不 BI
2025/01/12
AI說書 - 從0開始 - 293 | Tokenizer 重要性範例之展示 4、5
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 接著展示「pie」及「logic」兩詞之間的相似度計算結果: word1 = "pie" word2 = "logic" print("Similarity", s
#
AI
#
ai
#
PromptEngineering
28
留言