huggingface
含有「huggingface」共 365 篇內容
全部內容
發佈日期由新至舊
Learn AI 不 BI
2025/04/21
AI說書 - 從0開始 - 388 | Hugging Face T5 模型之 Summary 功能範例
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我想要匯入一段文字,並以 AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數 中撰寫的函數,來執行總結功能,使用的範
#
AI
#
ai
#
PromptEngineering
7
1
Learn AI 不 BI
2025/04/20
AI說書 - 從0開始 - 387 | Hugging Face T5 模型製作 Summary 函數
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將建立一個摘要函數,您可以使用您想要摘要的任何文字進行呼叫,我們在程式碼中加入 Python textwrap 來將我們想要顯示的文字換行以產生段落,此函數有兩個參
#
AI
#
ai
#
PromptEngineering
8
留言
Learn AI 不 BI
2025/04/19
AI說書 - 從0開始 - 386 | Hugging Face T5 模型探索
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 也許 AI說書 - 從0開始 - 384 | Hugging Face T5 模型探索 的結果太長,我們可以透過以下程式來限縮範圍至 Decoder 範疇: if d
#
AI
#
ai
#
PromptEngineering
8
留言
Learn AI 不 BI
2025/04/18
AI說書 - 從0開始 - 385 | Hugging Face T5 模型探索
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 也許 AI說書 - 從0開始 - 384 | Hugging Face T5 模型探索 的結果太長,我們可以透過以下程式來限縮範圍至 Encoder 範疇: if
#
AI
#
ai
#
PromptEngineering
5
留言
Learn AI 不 BI
2025/04/17
AI說書 - 從0開始 - 384 | Hugging Face T5 模型探索
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 383 | Hugging Face T5 模型探索 的內容,當中有一參數值得一提: 過多的詞彙會導致稀疏的表示,相反,詞彙量過
#
AI
#
ai
#
PromptEngineering
6
留言
Learn AI 不 BI
2025/04/15
AI說書 - 從0開始 - 383 | Hugging Face T5 模型探索
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以先列出 T5 模型的架構,使用以下程式: if display_architecture == True: print(model.config)
#
AI
#
ai
#
PromptEngineering
7
2
Ayush Negi
6 天前
1
https://otx.alienvault.com/pulse/67fee5d78c68e6f60bff6635
1
Learn AI 不 BI
2025/04/14
AI說書 - 從0開始 - 382 | Hugging Face T5 模型安裝
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 現在我們要從 Hugging Face 上面載入 T5 模型,前置步驟所使用程式如下,當中 Sentencepiece 把文字分割成單獨的句子,它將段落或文件分成句子單
#
AI
#
ai
#
PromptEngineering
7
留言
Learn AI 不 BI
2025/04/13
AI說書 - 從0開始 - 381 | Hugging Face T5 模型差異
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - 從0開始 - 380 | Hugging Face 模型組入,會看到諸多 T5 模型種類,當中差異如下: Base 亦即基準模型,它的設計類似於
#
AI
#
ai
#
PromptEngineering
10
1
EC3
2025/04/13
2
3B的參數好大。
2
Learn AI 不 BI
2025/04/12
AI說書 - 從0開始 - 380 | Hugging Face 模型組入
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 本章節的內容需要從 Hugging Face 中載入 T5 模型,有鑑於此,我們首先登入頁面: https://huggingface.co/models,如下所示:
#
AI
#
ai
#
PromptEngineering
7
1
EC3
2025/04/13
2
文A的符號是?我上網查一下。
2
Learn AI 不 BI
2025/04/11
AI說書 - 從0開始 - 379 | T5 模型的設計背景
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Raffel 等人於 2019 年保留了大部分原始 Transformer 的架構和術語,然而,他們強調了一些關鍵方面,並且對詞彙和功能做了一些改變,以下列表包含了 T
#
AI
#
ai
#
PromptEngineering
9
留言