我不知道大家是不是和我一樣,家裡有幾塊之前買來不知道要幹嘛一直積灰塵的樹莓派開發板。買的時候想說可以做個家庭自動化或是什麼有趣的IOT專案,幾年都過去了,還是都堆在抽屜裡面。
這週在 Reddit 上看到有趣的專案。

(AI 生成情境圖)
今天分享幾個我覺得最有趣的專案,可能可以考慮把那些放在抽屜的板子拿出來實作一下。
AI 版的魔鏡,但它真的會評你穿搭

以前的 Smart Mirror 就是在鏡子旁邊顯示天氣跟行事曆,很炫但說真的不怎麼實用。很多人做完就放著積灰塵,感覺主要是拍完照發 IG 用的。現在有人把視覺語言模型 (VLM) 丟進去,加上一顆前置鏡頭,整個畫面就完全不一樣了。
早上你走到鏡子前,它不只說「早安」,還會透過臉部辨識知道你是誰,然後自動切換到你的個人面板 —— 你的行事曆、你訂閱的新聞,甚至你早餐打算吃什麼(如果你允許它存取你的飲食記錄的話)。最有趣的功能是穿搭評分。我在論壇看到有人分享,他把鏡子設定成「誠實模式」,某天早上鏡子直接跟他說:「那件格子襯衫不太適合今天這條休閒褲,要不要換一下?今天有個重要的會議對吧,建議換深色系。」然後他就去換了。
技術上怎麼做到的?
其實是使用 Raspberry Pi 5 + MagicMirror² 這個開源框架(社群超活躍,有上百個第三方模組可以裝)。再接一個跑在本地端的視覺語言模型,像是 LLaVA 或者 Gemma 3 的視覺版本。
最大的亮點是:完全不需要連網,你所有的臉部資料都在自己手上。不像 Amazon Rekognition 那種雲端方案,人臉影像一直傳到外部伺服器,這個版本真的是 100% 本地跑。
2025 年有人在 Hackster.io 上發了一個把 Google Gemini API 整合進 MagicMirror² 的完整教學,如果你不想自己搞本地模型,那個是當雲端版方案的捷徑。
如果你想試試,起點就從 MagicMirror² 開始。
桌上的 AI 電子雞(而且記性超好,還會盯你)

這個更有趣。有人用 3D 列印做了個小機器人外殼,裡面塞了一個跑在 Raspberry Pi 上的 LLM,然後幫它設定了「個性」跟「長期記憶」。不是那種你問它「今天天氣如何」它就制式回答的那種 AI 助理。而是那種你昨天說老闆今天很機車,隔天它可能會主動開口:「那個同事後來有道歉嗎?」或是「你說的那個死線是今天對吧,加油。」這不是寫死的程式邏輯。是 AI 真的從對話脈絡裡記住了你說過的事,然後在適當的時機想到要提起來。
技術上,「長期記憶」這塊是用 向量資料庫(vector database) 做到的,把你們的對話摘要存起來,每次回應之前先去查詢「我跟這個人之前聊過什麼」。
有些人還加了攝影機,加了更酷的行為邏輯:
- 你在認真打 code,視線盯著螢幕 → 它靜下來,不打擾你
- 你拿起手機開始滑 → 它說「你不是說 dead line 快到了嗎?」
- 你看起來很沮喪 → 它主動問「還好嗎?要不要說說看?」
這樣真的很像以前動漫裡面的機器人寵物例如阿姆羅的哈囉,感覺真的可以做出一個哈囉了。

(真正的機器人寵物始祖:鋼彈裡的哈囉,圖片來源:Wikipedia)
商業化的版本像是 Living.ai 的 EMO 已經在賣了(大概 $300 美金),有超過 1000 種表情、臉部辨識、聲音辨識。但 EMO 的模型是跑在雲端的,你的互動資料會上傳。
開源 DIY 版本的優勢就是:你的資料在你自己手上,而且你可以自己調它的個性 —— 讓它嘴巴更毒、更溫柔、或是說話更像某個你喜歡的角色。
想動手做需要準備什麼?
好消息是門檻真的沒有你想的那麼高。入門的核心配備:
硬體
- Raspberry Pi 5(強烈建議選 8GB RAM 版) — 這個 CP 值最高的入門磚。單純跑文字模型還 OK,如果要加上即時影像辨識,建議再加一塊 AI HAT+ 加速卡,整體效能差很多。
- 散熱風扇 — 這個一定要,Pi 5 全力跑 AI 的時候會燙。
軟體
- Ollama — 目前在本地端跑開源 LLM 最輕鬆的工具,幾行指令就能把 Llama、Gemma、Phi 等模型拉下來用,不需要自己搞複雜的環境設定。
- MagicMirror²(魔鏡專案)或自製 Python 腳本(機器人寵物)
選一個小模型
- Gemma 3B or 4B — Google 出的,繁中支援不錯,適合聊天和日常互動
- Phi-3 Mini — Microsoft 的,4K context,記憶容量夠,拿來做「記得你」的寵物很適合
- Qwen 2.5 (1.5B) — 如果 Pi 5 效能不夠,這個最輕量,繁中仍然流暢
如果你還沒有樹莓派,但很想先感受一下在本地跑 LLM 是什麼感覺,可以直接在自己的 Mac 或 Windows 上裝 Ollama 試試。不需要任何額外硬體,幾分鐘就能跑起來聊兩句。
這些專案讓我想了很多
表面上這是技術玩家在展現創意,但我覺得背後有一個更重要的訊號:
AI 的「空間」正在改變。
以前 AI 是一個服務,你需要打開某個網頁或 App 才能存取它。它住在「雲端裡的某個地方」,而你跟它的互動都是一次性的 —— 對話結束就結束,下次重新開始。但這些 Maker 做的事情,是讓 AI 有了「空間感」。它住在你的浴室鏡子裡,它坐在你的桌上,它記得你昨天說的事。這讓人機互動的質感完全不一樣。不只是工具,更像是一個真的存在於你生活空間裡的存在。
我知道聽起來有點哲學,但你只要想一下:如果你桌上那隻哈囉哪天說「你上週說想辭職,後來想清楚了嗎?」,你的感受跟一個問你「你需要什麼協助嗎」的客服機器人,根本是完全不同的東西。




















