PromptEngineering
含有「PromptEngineering」共 411 篇內容
全部內容
發佈日期由新至舊
Learn AI 不 BI
2025/01/04
AI說書 - 從0開始 - 286 | Word2Vec Tokenization 交互關係
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 只要一切順利,沒有人會去考慮預訓練的 Tokenizer,這就像現實生活中一樣,我們可以多年駕駛一輛車而不去想引擎的問題。然後有一天,車子突然拋錨了,我們才開始試圖找出
#
AI
#
ai
#
PromptEngineering
3
留言
Learn AI 不 BI
2025/01/03
AI說書 - 從0開始 - 285 | AI 人工品質控制
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers 將逐漸接管大多數複雜的自然語言處理任務,然而,人類的干預仍然是必不可少的,正確的方法是訓練一個 Transformers,實現它,控制輸出,並
#
AI
#
ai
#
PromptEngineering
10
留言
Learn AI 不 BI
2025/01/02
AI說書 - 從0開始 - 284 | 語言訓練資料的準備建議
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 訓練好的模型會像學習了一種語言的人一樣運作,它會理解自己能理解的內容,並從輸入數據中學習,輸入數據應該經過與第一步相同的預處理過程,並將新信息添加到訓練數據集中,訓練數
#
AI
#
ai
#
PromptEngineering
7
留言
Learn AI 不 BI
2025/01/01
AI說書 - Prompt Engineering - 155 | 自動輸出細化範例 2
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 範例 使用者:我希望你充當我的人工智慧內容生成細化代理,您的角色的目標是在我輸入提示後自動優化生成的內
#
AI
#
ai
#
PromptEngineering
8
留言
Learn AI 不 BI
2024/12/31
AI說書 - 從0開始 - 283 | 語言訓練資料的準備建議
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Raffel 等人於 2019 定義了標準文字到文字 T5 Transformer 模型,他們還走得更遠,他們為打破未經預處理就使用原始資料的神話做出了貢獻,預處理資料
#
AI
#
ai
#
PromptEngineering
11
留言
Learn AI 不 BI
2024/12/30
AI說書 - 從0開始 - 282 | 第十章目錄
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 子詞 Tokenizer 展示了 Tokenizer 如何影響 Transformer 模型的訓練和性能,我們將了解如何檢測哪種子詞 Tokenizer 被用來創建詞典
#
AI
#
ai
#
PromptEngineering
7
留言
Learn AI 不 BI
2024/12/29
AI說書 - 從0開始 - 281 | 第十章引言
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在研究 Transformer 模型時,我們往往專注於它們的架構以及用來訓練它們的數據集,本書涵蓋了原始 Transformer、BERT、RoBERTa、ChatGP
#
AI
#
ai
#
PromptEngineering
27
1
蕭帥哥
1
棒
Learn AI 不 BI
2024/12/28
AI說書 - 從0開始 - 279 | 第九章額外閱讀
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 247 | 第九章引言 到 AI說書 - 從0開始 - 278 | 模型視覺化極限與人為介入,我們完成書籍:Transformers f
#
AI
#
ai
#
PromptEngineering
13
1
蕭帥哥
1
假期愉快
Learn AI 不 BI
2024/12/27
AI說書 - 從0開始 - 278 | 模型視覺化極限與人為介入
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 模型的解釋已經取得了進展,但仍有許多工作要做,有些絆腳石仍然相當具有挑戰性: Embedding Sublayer 基於隨機計算,並添加到複雜
#
AI
#
ai
#
PromptEngineering
7
留言
Learn AI 不 BI
2024/12/26
AI說書 - 從0開始 - 277 | OpenAI Transformer 模型之視覺化
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 275 | OpenAI Transformer 模型之視覺化 及 AI說書 - 從0開始 - 276 | OpenAI Transf
#
AI
#
ai
#
PromptEngineering
13
留言