三分鐘學AI (3)
154
免費公開
房間資訊
這頻道將提供三分鐘以內長度的AI知識,讓你一天學一點AI知識,每天進步一點
Top 5
1
AI說書 - 從0開始 - 504 | DALL-E 模型背景說明
2
AI說書 - 從0開始 - 503 | DALL-E 模型架構
3
AI說書 - 從0開始 - 488 | Vision Transformer 輸入資料之圖片檢視
4
AI說書 - 從0開始 - 500 | CLIP 程式之輸入資料部分
5
AI說書 - 從0開始 - 498 | CLIP 前言與架構
1
AI說書 - 從0開始 - 504 | DALL-E 模型背景說明
2
AI說書 - 從0開始 - 503 | DALL-E 模型架構
3
AI說書 - 從0開始 - 488 | Vision Transformer 輸入資料之圖片檢視
4
AI說書 - 從0開始 - 500 | CLIP 程式之輸入資料部分
5
AI說書 - 從0開始 - 498 | CLIP 前言與架構
全部
AI從0開始-十四章
AI從0開始-十五章
AI從0開始-十六章
AI從0開始-十七章
AI從0開始-十八章
AI從0開始-十九章
AI從0開始-二十章
AI馴獸師-第七章
AI馴獸師-第八章
AI馴獸師-第九章
全部
AI從0開始-十四章
AI從0開始-十五章
AI從0開始-十六章
AI從0開始-十七章
AI從0開始-十八章
AI從0開始-十九章
AI從0開始-二十章
AI馴獸師-第七章
AI馴獸師-第八章
AI馴獸師-第九章
全部類型
免費與付費
最新發佈
最新發佈
LearnAI
2025/09/02
AI說書 - 從0開始 - 511 | GPT-4 之發散聯想任務
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將要求 DALL-E 與 GPT-4 執行一個發散聯想任務: 給我 10 個與「狗」有發散語義關聯的詞語 目標是找到 10 個與「狗」的語義距離(餘弦距離)最遠
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/09/02
AI說書 - 從0開始 - 511 | GPT-4 之發散聯想任務
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將要求 DALL-E 與 GPT-4 執行一個發散聯想任務: 給我 10 個與「狗」有發散語義關聯的詞語 目標是找到 10 個與「狗」的語義距離(餘弦距離)最遠
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/09/01
AI說書 - 從0開始 - 510 | GPT-4 之發散聯想任務
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 創造力是一種新的能力,而 GPT-4 現在可以執行這種創造力,Chen 等人於 2023 年的論文:Probing the “Creativity” of Large
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/09/01
AI說書 - 從0開始 - 510 | GPT-4 之發散聯想任務
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 創造力是一種新的能力,而 GPT-4 現在可以執行這種創造力,Chen 等人於 2023 年的論文:Probing the “Creativity” of Large
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/31
AI說書 - 從0開始 - 509 | DALL-E 的 UI 使用介面
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們也可以上傳一張圖片,並請 DALL-E 生成變體 (https://openai.com/dall-e-2)。 首先,我們需要上傳一張圖片,在此情況下,我們可
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/31
AI說書 - 從0開始 - 509 | DALL-E 的 UI 使用介面
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們也可以上傳一張圖片,並請 DALL-E 生成變體 (https://openai.com/dall-e-2)。 首先,我們需要上傳一張圖片,在此情況下,我們可
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/30
AI說書 - 從0開始 - 508 | DALL-E 的 UI 使用介面
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 讓我們前往 OpenAI 的終端使用者介面 https://openai.com/dall-e-2: 再輸入以下描述「莫哈韋沙漠中的 3D 外星人,看起來像好萊塢
#
AI
#
ai
#
PromptEngineering
2
LearnAI
2025/08/30
AI說書 - 從0開始 - 508 | DALL-E 的 UI 使用介面
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 讓我們前往 OpenAI 的終端使用者介面 https://openai.com/dall-e-2: 再輸入以下描述「莫哈韋沙漠中的 3D 外星人,看起來像好萊塢
#
AI
#
ai
#
PromptEngineering
2
LearnAI
2025/08/29
AI說書 - 從0開始 - 507 | 計算機視覺轉變
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 利用文字和圖像的基礎模型已經從研究領域進入主流,一般終端使用者現在能夠接觸到計算機科學史上最具革命性的計算機視覺技術。 當然,在 DALL-E 出現之前,市場上已
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/29
AI說書 - 從0開始 - 507 | 計算機視覺轉變
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 利用文字和圖像的基礎模型已經從研究領域進入主流,一般終端使用者現在能夠接觸到計算機科學史上最具革命性的計算機視覺技術。 當然,在 DALL-E 出現之前,市場上已
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/28
AI說書 - 從0開始 - 506 | DALL-E 模型之圖片生成程式
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 讓我們看看 DALL-E 2 的創造力,並讓它為已創建並保存為 c_image.png 的圖像創建變體,到 2024 年 1 月,OpenAI 建議使用 DALL-E
#
AI
#
ai
#
PromptEngineering
7
LearnAI
2025/08/28
AI說書 - 從0開始 - 506 | DALL-E 模型之圖片生成程式
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 讓我們看看 DALL-E 2 的創造力,並讓它為已創建並保存為 c_image.png 的圖像創建變體,到 2024 年 1 月,OpenAI 建議使用 DALL-E
#
AI
#
ai
#
PromptEngineering
7
LearnAI
2025/08/27
AI說書 - 從0開始 - 505 | DALL-E 模型之圖片生成程式
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在接下來的範例中,我們將創建一幅圖像,內容是一個人在靠近月球的餐廳裡與聊天機器人交談,並將圖像保存到文件中: sequence = "Creating an imag
#
AI
#
ai
#
PromptEngineering
2
LearnAI
2025/08/27
AI說書 - 從0開始 - 505 | DALL-E 模型之圖片生成程式
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在接下來的範例中,我們將創建一幅圖像,內容是一個人在靠近月球的餐廳裡與聊天機器人交談,並將圖像保存到文件中: sequence = "Creating an imag
#
AI
#
ai
#
PromptEngineering
2
LearnAI
2025/08/25
AI說書 - 從0開始 - 504 | DALL-E 模型背景說明
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以依賴官方論文來理解 DALL-E 模型的大致架構,出自 Ramesh 等人於 2021 年的論文 Zero-Shot Text-to-Image Generat
#
AI
#
ai
#
PromptEngineering
6
LearnAI
2025/08/25
AI說書 - 從0開始 - 504 | DALL-E 模型背景說明
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以依賴官方論文來理解 DALL-E 模型的大致架構,出自 Ramesh 等人於 2021 年的論文 Zero-Shot Text-to-Image Generat
#
AI
#
ai
#
PromptEngineering
6
LearnAI
2025/08/24
AI說書 - 從0開始 - 503 | DALL-E 模型架構
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 DALL-E 與 CLIP 一樣,是一種多模態模型,CLIP 處理文本-圖像對,而 DALL-E 對文本和圖像 Token 的處理方式有所不同,DALL-E 1 的輸入
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/24
AI說書 - 從0開始 - 503 | DALL-E 模型架構
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 DALL-E 與 CLIP 一樣,是一種多模態模型,CLIP 處理文本-圖像對,而 DALL-E 對文本和圖像 Token 的處理方式有所不同,DALL-E 1 的輸入
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/23
AI說書 - 從0開始 - 502 | CLIP 模型架構
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 要視覺化 CLIP 模型的架構,可以使用程式碼: model 結果摘錄為:
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/23
AI說書 - 從0開始 - 502 | CLIP 模型架構
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 要視覺化 CLIP 模型的架構,可以使用程式碼: model 結果摘錄為:
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/22
AI說書 - 從0開始 - 501 | CLIP 程式之推論部分
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 輸入資料特徵計算: with torch.no_grad(): image_features = model.encode_image(image_input)
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/22
AI說書 - 從0開始 - 501 | CLIP 程式之推論部分
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 輸入資料特徵計算: with torch.no_grad(): image_features = model.encode_image(image_input)
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/21
AI說書 - 從0開始 - 500 | CLIP 程式之輸入資料部分
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先載入模型: device = "cuda" if torch.cuda.is_available() else "cpu" model, preprocess
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/21
AI說書 - 從0開始 - 500 | CLIP 程式之輸入資料部分
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先載入模型: device = "cuda" if torch.cuda.is_available() else "cpu" model, preprocess
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/20
AI說書 - 從0開始 - 499 | CLIP 程式前置作業
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 要應用 CLIP,我們先準備程式需要的相關依賴: !pip install ftfy regex tqdm !pip install git+https://git
#
AI
#
ai
#
PromptEngineering
6
LearnAI
2025/08/20
AI說書 - 從0開始 - 499 | CLIP 程式前置作業
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 要應用 CLIP,我們先準備程式需要的相關依賴: !pip install ftfy regex tqdm !pip install git+https://git
#
AI
#
ai
#
PromptEngineering
6
LearnAI
2025/08/17
AI說書 - 從0開始 - 498 | CLIP 前言與架構
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Contrastive Language-Image Pre-Training(CLIP)是一種多模態 Transformer,可用於圖像分類,CLIP 的流程可總結如
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/17
AI說書 - 從0開始 - 498 | CLIP 前言與架構
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Contrastive Language-Image Pre-Training(CLIP)是一種多模態 Transformer,可用於圖像分類,CLIP 的流程可總結如
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/15
AI說書 - 從0開始 - 497 | Vision Transformer 之輸出 Softmax 檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以對輸出的 Logit 應用 Temperature、Softmax、Top-K 與 Top-P,以下為應用 Softmax: probs = torch.nn
#
AI
#
ai
#
PromptEngineering
5
1
LearnAI
2025/08/15
AI說書 - 從0開始 - 497 | Vision Transformer 之輸出 Softmax 檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以對輸出的 Logit 應用 Temperature、Softmax、Top-K 與 Top-P,以下為應用 Softmax: probs = torch.nn
#
AI
#
ai
#
PromptEngineering
5
1
LearnAI
2025/08/14
AI說書 - 從0開始 - 496 | Vision Transformer 之輸出標籤檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以窺探 ViT 模型的輸出標籤形狀: print(outputs.logits.shape) 結果為: 也可以看看模型原本配置幾個標籤: mode
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/14
AI說書 - 從0開始 - 496 | Vision Transformer 之輸出標籤檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以窺探 ViT 模型的輸出標籤形狀: print(outputs.logits.shape) 結果為: 也可以看看模型原本配置幾個標籤: mode
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/13
AI說書 - 從0開始 - 495 | Vision Transformer 之模型參數檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示 ViT 模型: model 結果為:
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/13
AI說書 - 從0開始 - 495 | Vision Transformer 之模型參數檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示 ViT 模型: model 結果為:
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/12
AI說書 - 從0開始 - 494 | Vision Transformer 之特徵提取器之參數檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示了特徵提取器的配置,輸出顯示了特徵提取器的配置: 您可以看到特徵提取器如何處理 224 x 224 的影像,包括正規化、重新縮放、調整大小、計算均值
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/12
AI說書 - 從0開始 - 494 | Vision Transformer 之特徵提取器之參數檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示了特徵提取器的配置,輸出顯示了特徵提取器的配置: 您可以看到特徵提取器如何處理 224 x 224 的影像,包括正規化、重新縮放、調整大小、計算均值
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/11
AI說書 - 從0開始 - 493 | Vision Transformer 程式實作
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 預處理後的圖像接著被輸入到 ViT 模型(ViTForImageClassification)中,該模型會輸出 Logits,Logits 是模型最終層對分類任務中每個
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/11
AI說書 - 從0開始 - 493 | Vision Transformer 程式實作
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 預處理後的圖像接著被輸入到 ViT 模型(ViTForImageClassification)中,該模型會輸出 Logits,Logits 是模型最終層對分類任務中每個
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/10
AI說書 - 從0開始 - 492 | Vision Transformer 特徵提取器之呼叫方式
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 特徵提取器是模型 Pipeline 的重要組件,它對原始輸入數據(此處為圖像)進行必要的預處理,將其轉換為適合輸入模型的格式,我們來總結一下 ViT 特徵提取器的功能:
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/10
AI說書 - 從0開始 - 492 | Vision Transformer 特徵提取器之呼叫方式
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 特徵提取器是模型 Pipeline 的重要組件,它對原始輸入數據(此處為圖像)進行必要的預處理,將其轉換為適合輸入模型的格式,我們來總結一下 ViT 特徵提取器的功能:
#
AI
#
ai
#
PromptEngineering
4
加入
Top 5
1
AI說書 - 從0開始 - 504 | DALL-E 模型背景說明
2
AI說書 - 從0開始 - 503 | DALL-E 模型架構
3
AI說書 - 從0開始 - 488 | Vision Transformer 輸入資料之圖片檢視
4
AI說書 - 從0開始 - 500 | CLIP 程式之輸入資料部分
5
AI說書 - 從0開始 - 498 | CLIP 前言與架構
1
AI說書 - 從0開始 - 504 | DALL-E 模型背景說明
2
AI說書 - 從0開始 - 503 | DALL-E 模型架構
3
AI說書 - 從0開始 - 488 | Vision Transformer 輸入資料之圖片檢視
4
AI說書 - 從0開始 - 500 | CLIP 程式之輸入資料部分
5
AI說書 - 從0開始 - 498 | CLIP 前言與架構
全部
AI從0開始-十四章
AI從0開始-十五章
AI從0開始-十六章
AI從0開始-十七章
AI從0開始-十八章
AI從0開始-十九章
AI從0開始-二十章
AI馴獸師-第七章
AI馴獸師-第八章
AI馴獸師-第九章
全部
AI從0開始-十四章
AI從0開始-十五章
AI從0開始-十六章
AI從0開始-十七章
AI從0開始-十八章
AI從0開始-十九章
AI從0開始-二十章
AI馴獸師-第七章
AI馴獸師-第八章
AI馴獸師-第九章
全部類型
免費與付費
最新發佈
最新發佈
LearnAI
2025/09/02
AI說書 - 從0開始 - 511 | GPT-4 之發散聯想任務
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將要求 DALL-E 與 GPT-4 執行一個發散聯想任務: 給我 10 個與「狗」有發散語義關聯的詞語 目標是找到 10 個與「狗」的語義距離(餘弦距離)最遠
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/09/02
AI說書 - 從0開始 - 511 | GPT-4 之發散聯想任務
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們將要求 DALL-E 與 GPT-4 執行一個發散聯想任務: 給我 10 個與「狗」有發散語義關聯的詞語 目標是找到 10 個與「狗」的語義距離(餘弦距離)最遠
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/09/01
AI說書 - 從0開始 - 510 | GPT-4 之發散聯想任務
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 創造力是一種新的能力,而 GPT-4 現在可以執行這種創造力,Chen 等人於 2023 年的論文:Probing the “Creativity” of Large
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/09/01
AI說書 - 從0開始 - 510 | GPT-4 之發散聯想任務
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 創造力是一種新的能力,而 GPT-4 現在可以執行這種創造力,Chen 等人於 2023 年的論文:Probing the “Creativity” of Large
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/31
AI說書 - 從0開始 - 509 | DALL-E 的 UI 使用介面
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們也可以上傳一張圖片,並請 DALL-E 生成變體 (https://openai.com/dall-e-2)。 首先,我們需要上傳一張圖片,在此情況下,我們可
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/31
AI說書 - 從0開始 - 509 | DALL-E 的 UI 使用介面
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們也可以上傳一張圖片,並請 DALL-E 生成變體 (https://openai.com/dall-e-2)。 首先,我們需要上傳一張圖片,在此情況下,我們可
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/30
AI說書 - 從0開始 - 508 | DALL-E 的 UI 使用介面
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 讓我們前往 OpenAI 的終端使用者介面 https://openai.com/dall-e-2: 再輸入以下描述「莫哈韋沙漠中的 3D 外星人,看起來像好萊塢
#
AI
#
ai
#
PromptEngineering
2
LearnAI
2025/08/30
AI說書 - 從0開始 - 508 | DALL-E 的 UI 使用介面
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 讓我們前往 OpenAI 的終端使用者介面 https://openai.com/dall-e-2: 再輸入以下描述「莫哈韋沙漠中的 3D 外星人,看起來像好萊塢
#
AI
#
ai
#
PromptEngineering
2
LearnAI
2025/08/29
AI說書 - 從0開始 - 507 | 計算機視覺轉變
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 利用文字和圖像的基礎模型已經從研究領域進入主流,一般終端使用者現在能夠接觸到計算機科學史上最具革命性的計算機視覺技術。 當然,在 DALL-E 出現之前,市場上已
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/29
AI說書 - 從0開始 - 507 | 計算機視覺轉變
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 利用文字和圖像的基礎模型已經從研究領域進入主流,一般終端使用者現在能夠接觸到計算機科學史上最具革命性的計算機視覺技術。 當然,在 DALL-E 出現之前,市場上已
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/28
AI說書 - 從0開始 - 506 | DALL-E 模型之圖片生成程式
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 讓我們看看 DALL-E 2 的創造力,並讓它為已創建並保存為 c_image.png 的圖像創建變體,到 2024 年 1 月,OpenAI 建議使用 DALL-E
#
AI
#
ai
#
PromptEngineering
7
LearnAI
2025/08/28
AI說書 - 從0開始 - 506 | DALL-E 模型之圖片生成程式
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 讓我們看看 DALL-E 2 的創造力,並讓它為已創建並保存為 c_image.png 的圖像創建變體,到 2024 年 1 月,OpenAI 建議使用 DALL-E
#
AI
#
ai
#
PromptEngineering
7
LearnAI
2025/08/27
AI說書 - 從0開始 - 505 | DALL-E 模型之圖片生成程式
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在接下來的範例中,我們將創建一幅圖像,內容是一個人在靠近月球的餐廳裡與聊天機器人交談,並將圖像保存到文件中: sequence = "Creating an imag
#
AI
#
ai
#
PromptEngineering
2
LearnAI
2025/08/27
AI說書 - 從0開始 - 505 | DALL-E 模型之圖片生成程式
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在接下來的範例中,我們將創建一幅圖像,內容是一個人在靠近月球的餐廳裡與聊天機器人交談,並將圖像保存到文件中: sequence = "Creating an imag
#
AI
#
ai
#
PromptEngineering
2
LearnAI
2025/08/25
AI說書 - 從0開始 - 504 | DALL-E 模型背景說明
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以依賴官方論文來理解 DALL-E 模型的大致架構,出自 Ramesh 等人於 2021 年的論文 Zero-Shot Text-to-Image Generat
#
AI
#
ai
#
PromptEngineering
6
LearnAI
2025/08/25
AI說書 - 從0開始 - 504 | DALL-E 模型背景說明
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以依賴官方論文來理解 DALL-E 模型的大致架構,出自 Ramesh 等人於 2021 年的論文 Zero-Shot Text-to-Image Generat
#
AI
#
ai
#
PromptEngineering
6
LearnAI
2025/08/24
AI說書 - 從0開始 - 503 | DALL-E 模型架構
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 DALL-E 與 CLIP 一樣,是一種多模態模型,CLIP 處理文本-圖像對,而 DALL-E 對文本和圖像 Token 的處理方式有所不同,DALL-E 1 的輸入
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/24
AI說書 - 從0開始 - 503 | DALL-E 模型架構
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 DALL-E 與 CLIP 一樣,是一種多模態模型,CLIP 處理文本-圖像對,而 DALL-E 對文本和圖像 Token 的處理方式有所不同,DALL-E 1 的輸入
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/23
AI說書 - 從0開始 - 502 | CLIP 模型架構
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 要視覺化 CLIP 模型的架構,可以使用程式碼: model 結果摘錄為:
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/23
AI說書 - 從0開始 - 502 | CLIP 模型架構
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 要視覺化 CLIP 模型的架構,可以使用程式碼: model 結果摘錄為:
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/22
AI說書 - 從0開始 - 501 | CLIP 程式之推論部分
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 輸入資料特徵計算: with torch.no_grad(): image_features = model.encode_image(image_input)
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/22
AI說書 - 從0開始 - 501 | CLIP 程式之推論部分
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 輸入資料特徵計算: with torch.no_grad(): image_features = model.encode_image(image_input)
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/21
AI說書 - 從0開始 - 500 | CLIP 程式之輸入資料部分
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先載入模型: device = "cuda" if torch.cuda.is_available() else "cpu" model, preprocess
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/21
AI說書 - 從0開始 - 500 | CLIP 程式之輸入資料部分
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 首先載入模型: device = "cuda" if torch.cuda.is_available() else "cpu" model, preprocess
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/20
AI說書 - 從0開始 - 499 | CLIP 程式前置作業
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 要應用 CLIP,我們先準備程式需要的相關依賴: !pip install ftfy regex tqdm !pip install git+https://git
#
AI
#
ai
#
PromptEngineering
6
LearnAI
2025/08/20
AI說書 - 從0開始 - 499 | CLIP 程式前置作業
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 要應用 CLIP,我們先準備程式需要的相關依賴: !pip install ftfy regex tqdm !pip install git+https://git
#
AI
#
ai
#
PromptEngineering
6
LearnAI
2025/08/17
AI說書 - 從0開始 - 498 | CLIP 前言與架構
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Contrastive Language-Image Pre-Training(CLIP)是一種多模態 Transformer,可用於圖像分類,CLIP 的流程可總結如
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/17
AI說書 - 從0開始 - 498 | CLIP 前言與架構
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Contrastive Language-Image Pre-Training(CLIP)是一種多模態 Transformer,可用於圖像分類,CLIP 的流程可總結如
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/15
AI說書 - 從0開始 - 497 | Vision Transformer 之輸出 Softmax 檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以對輸出的 Logit 應用 Temperature、Softmax、Top-K 與 Top-P,以下為應用 Softmax: probs = torch.nn
#
AI
#
ai
#
PromptEngineering
5
1
LearnAI
2025/08/15
AI說書 - 從0開始 - 497 | Vision Transformer 之輸出 Softmax 檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以對輸出的 Logit 應用 Temperature、Softmax、Top-K 與 Top-P,以下為應用 Softmax: probs = torch.nn
#
AI
#
ai
#
PromptEngineering
5
1
LearnAI
2025/08/14
AI說書 - 從0開始 - 496 | Vision Transformer 之輸出標籤檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以窺探 ViT 模型的輸出標籤形狀: print(outputs.logits.shape) 結果為: 也可以看看模型原本配置幾個標籤: mode
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/14
AI說書 - 從0開始 - 496 | Vision Transformer 之輸出標籤檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們可以窺探 ViT 模型的輸出標籤形狀: print(outputs.logits.shape) 結果為: 也可以看看模型原本配置幾個標籤: mode
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/13
AI說書 - 從0開始 - 495 | Vision Transformer 之模型參數檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示 ViT 模型: model 結果為:
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/13
AI說書 - 從0開始 - 495 | Vision Transformer 之模型參數檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示 ViT 模型: model 結果為:
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/12
AI說書 - 從0開始 - 494 | Vision Transformer 之特徵提取器之參數檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示了特徵提取器的配置,輸出顯示了特徵提取器的配置: 您可以看到特徵提取器如何處理 224 x 224 的影像,包括正規化、重新縮放、調整大小、計算均值
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/12
AI說書 - 從0開始 - 494 | Vision Transformer 之特徵提取器之參數檢視
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下程式碼顯示了特徵提取器的配置,輸出顯示了特徵提取器的配置: 您可以看到特徵提取器如何處理 224 x 224 的影像,包括正規化、重新縮放、調整大小、計算均值
#
AI
#
ai
#
PromptEngineering
5
LearnAI
2025/08/11
AI說書 - 從0開始 - 493 | Vision Transformer 程式實作
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 預處理後的圖像接著被輸入到 ViT 模型(ViTForImageClassification)中,該模型會輸出 Logits,Logits 是模型最終層對分類任務中每個
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/11
AI說書 - 從0開始 - 493 | Vision Transformer 程式實作
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 預處理後的圖像接著被輸入到 ViT 模型(ViTForImageClassification)中,該模型會輸出 Logits,Logits 是模型最終層對分類任務中每個
#
AI
#
ai
#
PromptEngineering
3
LearnAI
2025/08/10
AI說書 - 從0開始 - 492 | Vision Transformer 特徵提取器之呼叫方式
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 特徵提取器是模型 Pipeline 的重要組件,它對原始輸入數據(此處為圖像)進行必要的預處理,將其轉換為適合輸入模型的格式,我們來總結一下 ViT 特徵提取器的功能:
#
AI
#
ai
#
PromptEngineering
4
LearnAI
2025/08/10
AI說書 - 從0開始 - 492 | Vision Transformer 特徵提取器之呼叫方式
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 特徵提取器是模型 Pipeline 的重要組件,它對原始輸入數據(此處為圖像)進行必要的預處理,將其轉換為適合輸入模型的格式,我們來總結一下 ViT 特徵提取器的功能:
#
AI
#
ai
#
PromptEngineering
4