ViT
含有「ViT」共 16 篇內容
全部內容
發佈日期由新至舊
Learn AI 不 BI
2025/12/23
AI說書 - 從0開始 - 564 | ViT-base-patch16-224 ImageClassification
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下使用 ViT-base-patch16-224 模型執行影像辨識: image_path=”/content/car_in_fog.png” import PIL
#
AI
#
ai
#
PromptEngineering
4
1
李炳松
3 天前
1
1
Learn AI 不 BI
2025/12/22
AI說書 - 從0開始 - 563 | ViTForImageClassification 推論
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下使用 ViT 模型執行影像辨識: model_name = "autotrain-training-cifar-10-81128141658" output =
#
AI
#
ai
#
PromptEngineering
7
留言
Learn AI 不 BI
2025/12/21
AI說書 - 從0開始 - 562 | ViTForImageClassification 前言
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 針對 ViT 模型的描述,模型包含以下部分: 圖像編碼器:由一組堆疊的 Transformer 區塊構成,每個 Transformer 區塊包含一個自注意力層、一個卷
#
AI
#
ai
#
PromptEngineering
3
1
李炳松
4 天前
1
1
Learn AI 不 BI
2025/08/15
AI說書 - 從0開始 - 497 | Vision Transformer 之輸出 Softmax 檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以對輸出的 Logit 應用 Temperature、Softmax、Top-K 與 Top-P,以下為應用 Softmax: probs = torch.nn
#
AI
#
ai
#
PromptEngineering
5
1
Vytha xu
2025/08/16
1
❤️ ❤️ ❤️ ❤️
1
Learn AI 不 BI
2025/08/14
AI說書 - 從0開始 - 496 | Vision Transformer 之輸出標籤檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以窺探 ViT 模型的輸出標籤形狀: print(outputs.logits.shape) 結果為: 也可以看看模型原本配置幾個標籤: mode
#
AI
#
ai
#
PromptEngineering
5
留言
Learn AI 不 BI
2025/08/13
AI說書 - 從0開始 - 495 | Vision Transformer 之模型參數檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示 ViT 模型: model 結果為:
#
AI
#
ai
#
PromptEngineering
4
留言
Learn AI 不 BI
2025/08/12
AI說書 - 從0開始 - 494 | Vision Transformer 之特徵提取器之參數檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示了特徵提取器的配置,輸出顯示了特徵提取器的配置: 您可以看到特徵提取器如何處理 224 x 224 的影像,包括正規化、重新縮放、調整大小、計算均值
#
AI
#
ai
#
PromptEngineering
5
留言
Learn AI 不 BI
2025/08/11
AI說書 - 從0開始 - 493 | Vision Transformer 程式實作
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 預處理後的圖像接著被輸入到 ViT 模型(ViTForImageClassification)中,該模型會輸出 Logits,Logits 是模型最終層對分類任務中每個
#
AI
#
ai
#
PromptEngineering
3
留言
Learn AI 不 BI
2025/08/10
AI說書 - 從0開始 - 492 | Vision Transformer 特徵提取器之呼叫方式
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 特徵提取器是模型 Pipeline 的重要組件,它對原始輸入數據(此處為圖像)進行必要的預處理,將其轉換為適合輸入模型的格式,我們來總結一下 ViT 特徵提取器的功能:
#
AI
#
ai
#
PromptEngineering
4
留言
Learn AI 不 BI
2025/08/08
AI說書 - 從0開始 - 491 | Vision Transformer 特徵提取器效果檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 patches_reshaped = patches.permute(0, 2, 3, 1, 4, 5).contiguous().view(-1, 3, patch_si
#
AI
#
ai
#
PromptEngineering
5
留言