ai
含有「ai」共 619 篇內容
全部內容
發佈日期由新至舊
Learn AI 不 BI
2025/01/26
AI說書 - Prompt Engineering - 158 | 自動輸出細化探討
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 自動輸出細化 (AOR) 概念是大型語言模型領域的一個有前途的進步,它提供了一種新穎的方法,透過利用大型
#
AI
#
ai
#
PromptEngineering
4
留言
Learn AI 不 BI
2025/01/25
AI說書 - 從0開始 - 305 | Token ID 映射顯示
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 304 | WordPiece Tokenization 介紹與偵測 講 WordPiece Tokenizer,今天來談論 Toke
#
AI
#
ai
#
PromptEngineering
10
留言
Learn AI 不 BI
2025/01/24
AI說書 - 從0開始 - 304 | WordPiece Tokenization 介紹與偵測
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下撰寫程式來分辨,Tokenizer 究竟是 WordPiece 還是 BPE: from transformers import BertTokenizer m
#
AI
#
ai
#
PromptEngineering
10
留言
Learn AI 不 BI
2025/01/23
AI說書 - 從0開始 - 303 | WordPiece Tokenization 介紹與偵測
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 WordPiece 和 Byte Pair Encoding (BPE) 一樣,以單個字符的詞彙表開始,這樣可以確保任何詞都能被 Tokenization,接著,訓練過
#
AI
#
ai
#
PromptEngineering
15
留言
Learn AI 不 BI
2025/01/22
AI說書 - 從0開始 - 302 | Byte Pair Encoding 產生流程之介紹
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Byte Pair Encoding (BPE) 以單個字符的詞彙表開始,然後合併最常見的相鄰字符對,超參數決定了該過程重複的次數。 最終結果是一組合併後的字符,
#
AI
#
ai
#
PromptEngineering
8
留言
ai bot的沙龍
2025/01/22
AI and the Art of Video Editing: How Automation is Enhancing
Introduction In a world where video content reigns supreme, AI is rapidly emerging as the unsung hero behind the curtain. Picture this: producing pro
#
AI人工智慧
#
生成式AI
#
video
1
留言
Learn AI 不 BI
2025/01/21
AI說書 - 從0開始 - 301 | Sentence Piece Tokenization 展示
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Sentence Piece Tokenizer 在 Unigram 語言模型 Tokenizer (見 AI說書 - 從0開始 - 300 | Unigram Lan
#
AI
#
ai
#
PromptEngineering
8
留言
Learn AI 不 BI
2025/01/20
AI說書 - Prompt Engineering - 157 | 自動輸出細化範例 2
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 此內容接續 AI說書 - Prompt Engineering - 156 | 自動輸出細化範例 2
#
AI
#
ai
#
PromptEngineering
8
留言
Learn AI 不 BI
2025/01/19
AI說書 - 從0開始 - 300 | Unigram Language Model Tokenization 訓練展示
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Unigram 語言模型分詞由 Google 開發,它使用 Subword 單元進行訓練,並會丟棄不常見的單元,Unigram 語言模型 Tokenization 是隨
#
AI
#
ai
#
PromptEngineering
10
留言
Learn AI 不 BI
2025/01/18
AI說書 - 從0開始 - 299 | Subword Tokenizer 引言
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 模型是大規模的大型語言模型 (LLMs),模型的規模和它們執行的任務數量需要高效的 Tokenizer,Subword Tokenizer 是
#
AI
#
ai
#
PromptEngineering
21
留言