

現在的 AI 世界日新月異,讓人目不暇給。不過每當我想把自己的筆記、程式碼或資料丟到雲端時,心裡總是有點不安——這些東西,真的適合交給別人保管嗎?
所以我開始想,能不能在家打造一個「屬於自己」的語言模型環境?不用靠雲端,也不必額外付費租 API,只靠一台主機就能跑 LLM。這篇文章,就是我這段時間折騰出來的成果,希望對你也有幫助。
我用的設備:簡單到你可能也有
這次的主角其實很樸素:
- 一塊主機板搭配 Intel N150 CPU
- DDR5 記憶體 16GB(雖然等下會說這其實不太夠)
- 兩顆 SSD + 一顆傳統硬碟
- 一張 NVIDIA RTX 4090(24GB VRAM 的怪物級顯卡)
- 安裝的作業系統是 TrueNAS SCALE 25.04.1
- App 則用的是 Ollama + Open WebUI,提供模型運行與網頁對話介面
聽起來是不是不像什麼 AI 專業伺服器?但它真的跑得動,而且跑得還不錯。
小模型速度超快,大模型就... 要等一下
我先試著跑了 3.2B 的語言模型(像是 DeepSeek-R1 系列),不得不說,真的蠻驚艷的——問一句話,大概幾秒鐘就有回答,不卡頓、不卡住。
這都得感謝 RTX 4090 強大的 24GB 顯示記憶體,讓推論可以直接塞在 GPU 裡進行,不用掉到 RAM 或硬碟。
但當我試著載入 27B 的模型時,就不太一樣了。啟動時間會長很多,有時甚至得等上幾分鐘。不過啟動完後的互動體驗還是 OK 的。
TrueNAS 讓 AI 助理變得可靠又實用
TrueNAS 本來是做 NAS 的專家,它的 ZFS 檔案系統很穩、很安全,加上有快照、RAID 等等功能,讓我可以放心地把資料放進去。
而且,透過它內建的 Docker App 機制,我很輕鬆就安裝好 Ollama,甚至還搭配 Open WebUI 當作簡單前端,不需要寫一行程式就能開始對話。
接著我開始實驗把自己寫的筆記、PDF 檔案餵進 RAG(檢索式增強生成)系統中,讓模型可以讀自己的資料後再回答問題——雖然這部分還在調整中,但潛力無限。
我覺得這是未來 AI 最值得期待的方向:不是更強的模型,而是更懂你、懂你的資料的 AI。
提升效能的一些小技巧
為了讓整體體驗更順,我也做了幾件事:
- 把 RAM 升級到 16GB(其實建議直接拉到 64GB 以上,尤其是要跑 13B / 27B 模型)
- 把模型資料和輸入檔案都放到 SSD 裡,讓 I/O 更快
- 使用 Docker 的 bridge network,方便後續擴充其他容器
這些調整都不是什麼高深技術,反而像是在整理房間——資料放對地方,效能自然就順了。
下一步:自己訓練的 RAG 系統
現在這個架構已經夠我跑現成模型、讀我自己的資料,但我更期待的是自己打造一套 RAG 系統。
我正在研究 Haystack 或 LlamaIndex,想把筆記、PDF、網頁收藏轉成 embedding,建成自己的語意向量資料庫,然後透過 Ollama API 問答。
簡單說,我想做一個「懂我」的 Copilot,不是只會背答案,而是能根據我的資料做出反應。
總結:每個人都可以擁有自己的 AI
你可能會想:「這樣是不是太複雜?」
其實不會。你只要會裝 Windows,就能學會裝 TrueNAS。你只要會用 Docker 的圖形介面,就能跑 Ollama。你甚至不需要很懂 AI,只要願意試試看。
我不是 AI 專家,但我做到了。
你也可以。
如果你喜歡這篇文章,歡迎留言或分享給也想嘗試的人。之後我還會繼續寫:怎麼自己打造 RAG、怎麼優化多模型部署效能,還有怎麼把它變成一個每天都能用的個人助理。
AI 不是遙不可及的科技,它可以就在你家、就在你的 NAS 裡,幫你完成更多以前覺得麻煩的事。