Ollama 下載:https://ollama.com/download
Ollama 是一個在自己的電腦(本地端)運行大型語言模型(LLM)的工具與平台。可以完全不需要連上網路就能夠使用。適合比較有機敏性的,避免意外泄露機密,不能透過雲端使用的專利研發者或企業。或是想免費無限量使用大型語言模型工具。但相對非常依賴自己的電腦記憶體和顯示卡的效能。先前在介紹 Sider AI 的 自訂 API 金鑰曾以 Ollama 為例,介紹其安裝方式。Ollama 也在上月有自己的圖形介面,不需要只在終端機操作。
OpenAI gpt-oss
OpenAI 在8 月 5 日推出2款「gpt-oss」開源大型語言模型 120b(1200 億參數)與 20b(200 億參數)。採用Apache 2.0 授權允許用戶免費下載模型使用。還可以依照自身需求對模型進行修改、微調與部署,應用於商業部署,不必額外付費或申請授權。參照 OpenAI gpt-oss 模型說明:https://openai.com/zh-Hant/index/introducing-gpt-oss/
“ 若不想連網使用Turbo模式,只在本機端運作,建議高階筆電再安裝此模型 ” 如 MacBook Pro 、ROG Flow 高規格電競筆電。
相關資料:
步驟1:下載並安裝 Ollama
Ollama 下載:https://ollama.com/download
步驟2:啟動 Ollama
安裝好後,點擊右上方白色羊駝圖示即可開啟,此時還沒安裝大型語言模型。

步驟3:安裝 大型語言模型
對話框由左至右依序為「 搜尋網路」、「Turbo模式」、「目前模型選擇」、「發送訊息」。首次輸入文字對話即立即安裝目前所選的模型。 非高階筆電可以先選擇輕量化「deepssek-r1:1.5b」。非高階筆電若想嘗試「gpt-oss:120b」建議需開啟 Turbo模式才不會等待回應很久。 一台筆電可以安裝多個語言模型。 b的數值越高越聰明但是相對運算時間越長,需要更好的GPU以及更大記憶體。


首次對話即安裝該語言模型
Turbo 模式
Turbo 模式是額外付費服務,每月需要20美元,提供用戶每7天有「10,000 tokens」的免費額度,可以體驗雲端加速運算服務。https://ollama.com/turbo

挑選其他模型
更多開源模型可以至官網挑選。 https://ollama.com/search 進到該模型頁頁面查詢版本號。例如 qwen3 只要在終端機輸入 ollama run qwen3:0.6b 就開始安裝了。

安裝好後,就能直接輸入文字測試AI回應,或是關閉終端機。
測試完成可以關閉終端機,直接在 Ollama 圖形介面運行。
空間考量推薦:
- ollama run qwen3:0.6b (523MB)
- ollama run gemma3:1b (815MB)
- ollama run deepseek-r1:1.5b (1.1GB)
- ollama run llama3.2:1b (1.3GB)
一般筆電推薦:
- ollama run phi4:14b(9.1GB)
- ollama run deepseek-r1:8b(5.2GB)
- ollama run deepseek-r1:14b(9.0GB)
- ollama run gemma3n(7.5GB)
- ollama run gemma3:4b(3.3GB)
查詢目前已安裝的語言模型
在終端機打 ollama list 即可查詢目前已安裝的語言模型

移除語言模型
在終端機打 ollama rm 模型代號 即可移除該模型。
