【AI成長日記】部署第一個語言模型

更新於 發佈於 閱讀時間約 6 分鐘

今天這篇文章,會用簡單易懂的方式介紹語言模型的小常識,包含去哪裡找模型、有哪些繁體中文模型、語言模型怎麼幫忙「讀圖片」,還有常見的啟動參數。

🌟 如何取得模型?推薦 Hugging Face!

如果你想試試看語言模型或是找一個能直接使用的模型平台,Hugging Face 是絕對不能錯過的平台。這個平台就像是 AI 模型的「GitHub」,集合了成千上萬個開源模型,涵蓋多種任務與語言。你可以依照自己的需求搜尋:

  • 中文模型(例:ChatGLM、Taiwan-LLaMA)
  • 英文模型(例:GPT-2、LLaMA)
  • 語音模型(例:Whisper 語音轉文字)
  • 圖像模型(例:CLIP、BLIP)
  • 大型模型(效能強大但資源需求高)
  • 小型模型(適合手機、邊緣設備)

Hugging Face 模型總覽頁

raw-image

最方便的是,每個模型頁面都有使用教學、範例程式碼與社群回饋,無論初學者還是開發者都能快速上手。如果想要直接下載模型來用,也可以透過 Hugging Face CLI。

假設你想下載 THUDM/chatglm3-6b(ChatGLM-3 模型):

huggingface-cli repo clone THUDM/chatglm3-6b

或是使用 Python 程式碼從模型 Hub 中載入:

from huggingface_hub import snapshot_download

model_path = snapshot_download(repo_id="THUDM/chatglm3-6b")

🌟 繁體/簡體中文有哪些好用的語言模型?

  • ChatGLM 系列(ChatGLM2、ChatGLM3):由清華大學與智譜 AI 聯合開發,支援中文優化、多輪對話能力強,且可在本地部署。ChatGLM3 支援多模態與工具調用,是進階應用的好選擇。
  • BaiChuan 系列(Baichuan-13B、Baichuan2-7B/13B):百川智能推出,支援中英文混合語言,且提供開源版本,性能與推理速度俱佳。尤其在知識問答、摘要任務上表現穩定。
  • Qwen 系列(Qwen-7B、Qwen-14B):阿里巴巴推出的高效模型,支援多語言,中文理解能力強,語調自然,尤其在生成式任務(寫作、對話)上有優勢。
  • InternLM(書生·浦語):由上海 AI 實驗室推出,屬於研究導向模型,支援多任務訓練,性能穩定,適合教育與科研場景使用。
  • Taiwan-LLaMA:台灣在地開發者社群的貢獻,針對台灣用語優化,適合新聞摘要、翻譯等應用。

🌟 啟動語言模型時會用到的參數有哪些?

當你嘗試啟動語言模型,有幾個重要的參數需要了解,因為模型能力會隨著不同管理者的調教而有不一樣的表現。

☄️ 模型相關參數

  • temperature:控制回答的「隨機程度」,越高越有創造力(但不一定正確),越低越保守。建議 0.2~0.8 之間測試。
  • top_k / top_p:限制模型選詞的範圍。Top-k 是從前 k 個選,Top-p 則是選出機率累積到 p 的詞彙。
  • max_tokens:回應的最長字數,避免模型「話太多」。
  • repetition_penalty:懲罰重複回答,讓模型避免講一樣的話。
  • prompt:給模型的起始訊息,非常關鍵,會影響它的思考方向與語氣。

☄️ GPU相關參數

  • device 或 torch_device:設定模型要使用 CPU 還是 GPU。常見設定為 "cuda"(使用 GPU)或 "cpu"。
  • load_in_8bit / load_in_4bit:使用 8-bit 或 4-bit 精度載入模型,可大幅降低記憶體佔用(推薦使用 bitsandbytes 套件)。
  • device_map="auto":自動分配模型到多張 GPU 上,適合處理大型模型。
  • max_memory:設定每張 GPU 的記憶體上限,避免超出 VRAM。
  • bf16 或 fp16:使用半精度 (16-bit) 推理,可提升速度並節省資源,尤其在支援的 GPU 上效果佳。
  • offload_folder:將部分模型暫存資料放到硬碟或 RAM,減輕 GPU 負擔。

🌟 主委加碼:圖片分析不是已經有電腦視覺技術了?為什麼還要用語言模型來讀圖?

過去做圖像辨識會用 CNN、YOLO 這類電腦視覺模型。但現在的趨勢是:讓語言模型接手理解圖片內容

原理是讓模型把圖片「描述」成一句句文字(image captioning),再讓語言模型根據這些描述,做回答、生成內容或決策。

這樣做的好處是可以快速產生自然語言回應,與文字內容融合更流暢,也適合做 AI 助理、教學系統、圖像問答應用。

------------------------------------------------------------------------

✨ 喜歡我的文章,歡迎繼續閱讀其他【AI 系列免費文章】!

------------------------------------------------------------------------

留言
avatar-img
留言分享你的想法!
avatar-img
EMO先生的沙龍
159會員
76內容數
本專題主要放一些投資理財方面的個人研究,投資理念偏向價值投資,習慣從產業的角度、產品營收佔比分析公司體質,近期研究的主題著重於: (1)半導體產業鏈:IC設計、IC製造、CoWos (2)重電產業鏈:台電強韌電網、智慧電網計畫 (3)營建股追蹤:隆大、新美齊、憶聲、順達、名軒
EMO先生的沙龍的其他內容
2025/07/26
本文深入淺出地介紹AI如何利用上下文視窗(Context Window)技術來理解和回應使用者提問,並闡述背後的系統架構和機制,包含系統如何過濾雜訊,避免記憶體超載,以及寫入和讀取記憶的過程,並以類似RAG架構作比喻。
Thumbnail
2025/07/26
本文深入淺出地介紹AI如何利用上下文視窗(Context Window)技術來理解和回應使用者提問,並闡述背後的系統架構和機制,包含系統如何過濾雜訊,避免記憶體超載,以及寫入和讀取記憶的過程,並以類似RAG架構作比喻。
Thumbnail
2025/07/24
本文探討早期與現代AI系統設計的差異,早期系統注重答案正確性,現代AI Agent則強調任務執行能力。文章詳細介紹了三種現代AI Agent設計模式:ReFlection Pattern、ReAct Pattern以及Plan and Solve Pattern,並說明其優缺點與應用場景。
Thumbnail
2025/07/24
本文探討早期與現代AI系統設計的差異,早期系統注重答案正確性,現代AI Agent則強調任務執行能力。文章詳細介紹了三種現代AI Agent設計模式:ReFlection Pattern、ReAct Pattern以及Plan and Solve Pattern,並說明其優缺點與應用場景。
Thumbnail
2025/04/13
大型語言模型的發展,讓人們思考陪伴型機器人是否能成真,文章探討兩種實現方式:主流的語音轉文字LLM方法和新興的Spoken LLMs方法。作者認為Spoken LLMs的發展,能讓AI更自然地與人互動,實現如哆啦A夢般的陪伴型機器人,並進一步提升AI的陪伴功能。
Thumbnail
2025/04/13
大型語言模型的發展,讓人們思考陪伴型機器人是否能成真,文章探討兩種實現方式:主流的語音轉文字LLM方法和新興的Spoken LLMs方法。作者認為Spoken LLMs的發展,能讓AI更自然地與人互動,實現如哆啦A夢般的陪伴型機器人,並進一步提升AI的陪伴功能。
Thumbnail
看更多
你可能也想看
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 繼 AI說書 - 從0開始 - 82 與 xxx ,我們談論了衡量 AI 模型的方式,那當你訓練的模型比 State-of-the-Art 還要好並想要進行宣稱時,需要
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 22解釋Foundation Model與Engines意涵後,我們來試用看看ChatGPT。 嘗試問以下問題:Provide a
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
筆記-曲博談AI模型.群聯-24.05.05 https://www.youtube.com/watch?v=JHE88hwx4b0&t=2034s *大型語言模型 三個步驟: 1.預訓練,訓練一次要用幾萬顆處理器、訓練時間要1個月,ChatGPT訓練一次的成本為1000萬美金。 2.微調(
Thumbnail
語言模型與文字表示以不同的方式來分析自然語言的詞語分佈及語意關係。本文章簡要介紹了語言模型、Word2vec、FastText、GloVe和Transformer等技術,並提供了實際的應用參考點,幫助讀者深入理解自然語言處理的技術。
Thumbnail
語言模型與文字表示以不同的方式來分析自然語言的詞語分佈及語意關係。本文章簡要介紹了語言模型、Word2vec、FastText、GloVe和Transformer等技術,並提供了實際的應用參考點,幫助讀者深入理解自然語言處理的技術。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News