前幾天試裝玩了一下openclaw,試裝玩了一下就退燒了。
大概是我不會玩,人家說的AI助理在我來看笨笨的。
用telgram 傳個訊息大概要等2-3分鐘才回,而且還是回我能幫助你什麼這樣簡短的訊息。
不過因為我用的是LLM本地架設的AI,所以各種卡可能是必然的。
也沒有好的顯卡可以跑更高階的LLM模型,目前就先這樣就好。
如果是用雲端API去串接工作的,我又怕他使用超過額度我要付錢。
目前整段我試用下來幾個心得分享
- 想玩本地模型的話,直接去OLLAMA網頁照著做,不要用GEMINI或是問CHATGPT來做。
- 安裝openclaw,如果用powershell安裝挺多麻煩的,建議用npm安裝。
- ollama launch openclaw 目前指令有問題,直接先run 你要的模型下載下來以後,在執行模型就好。
詳細可以參考很多youtuber 上的介紹,這邊只是把我試用的結果跟大家先分享。
我覺得用本地LLM加上AI助理用telegram 來下命令這一步重點有打通,基本上就只剩下你硬體好不好以及想要做什麼事情的問題了。
而且重點還會放在你想做什麼事情上面,一般人需要的其實他大概也做不了。
繳水電費?繳電話費?繳信用卡帳單?打掃家裡? (馬斯克的機器人比較可能)問候爸媽?你回來的時候給你一個擁抱? (這個最不可能)
我現在看到人家用的幾乎都是在家繼續工作,做文書作業或查找網路資訊之類的。
整理文章然後發電子報那種。
這類的它行,至於一般人的需求我看還是自己來比較實在,你應該也不敢全權授權給它。
這幾天看來不用玩太多技術,好好出去走走、騎車比較實在。
















