PromptEngineering
含有「PromptEngineering」共 441 篇內容
全部內容
發佈日期由新至舊
Learn AI 不 BI
2025/02/03
AI說書 - 從0開始 - 315 | 文本處理以降低 Tokenization 負擔
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧目前手上有的素材: 載入文本並執行 Tokenization:AI說書 - 從0開始 - 314 | 載入文本並執行 Tokenization 接著將 To
#
AI
#
ai
#
PromptEngineering
6
留言
Learn AI 不 BI
2025/02/02
AI說書 - 從0開始 - 314 | 載入文本並執行 Tokenization
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先我們先匯入文本,下面程式載入一個包含法國哲學家、科學家和數學家笛卡爾所寫內容的檔案: !curl -L https://raw.githubusercontent
#
AI
#
ai
#
PromptEngineering
7
留言
Learn AI 不 BI
2025/02/01
AI說書 - 從0開始 - 313 | Prompt Design 和 Prompt Engineering 差異
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 ChatGPT 模型令人印象深刻,已經讓所有人感到驚訝,然而,ChatGPT 有記憶問題!它只記得從訓練數據中學到的東西,例如,2024 年 1 月時,ChatGPT
#
AI
#
ai
#
PromptEngineering
11
留言
Learn AI 不 BI
2025/01/31
AI說書 - 從0開始 - 312 | 第十一章目錄
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 本章節將涵蓋以下內容: 使用 Punkt 對文字進行標記 使用 Gensim 和 Word2Vec 嵌入文本 探討單字的向量 探索嵌入向量空間 餘弦相似度
#
AI
#
ai
#
PromptEngineering
8
留言
Learn AI 不 BI
2025/01/30
AI說書 - 從0開始 - 311 | 第十一章引言
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 不要忽視 Embedding 作為微調大型語言 Transformer 模型的替代方案,微調需要可靠的資料集、正確的模型配置和硬體資源,創建高品質的資料集需要時間和資源
#
AI
#
ai
#
PromptEngineering
9
留言
Learn AI 不 BI
2025/01/29
AI說書 - 從0開始 - 308 | 第十章額外閱讀
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在本章中,我們測量了 Tokenization 對 Transformer 模型後續層的影響,Transformer 模型只能關注堆疊的嵌入層和位置編碼子層中的 Tok
#
AI
#
ai
#
PromptEngineering
9
留言
Learn AI 不 BI
2025/01/28
AI說書 - 從0開始 - 307 | Token ID 映射品質管控
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想要控管 Token ID 映射的品質,有鑑於此,先定義,先定義 Tokenizer: model_name = 'bert-base-uncased' token
#
AI
#
ai
#
PromptEngineering
11
留言
Learn AI 不 BI
2025/01/27
AI說書 - 從0開始 - 306 | Token ID 映射顯示
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 304 | WordPiece Tokenization 介紹與偵測 講 WordPiece Tokenizer,而 AI說書 - 從
#
AI
#
ai
#
PromptEngineering
21
留言
Learn AI 不 BI
2025/01/26
AI說書 - Prompt Engineering - 158 | 自動輸出細化探討
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 自動輸出細化 (AOR) 概念是大型語言模型領域的一個有前途的進步,它提供了一種新穎的方法,透過利用大型
#
AI
#
ai
#
PromptEngineering
8
留言
Learn AI 不 BI
2025/01/25
AI說書 - 從0開始 - 305 | Token ID 映射顯示
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 304 | WordPiece Tokenization 介紹與偵測 講 WordPiece Tokenizer,今天來談論 Toke
#
AI
#
ai
#
PromptEngineering
10
留言