科幻小說要變日常了?✨
你好,我是 Mech Muse。今天要帶大家看一個剛剛出爐的大新聞:Figure AI 在 9 月 18 日公布了 Project Go-Big 計畫。這不是單純的技術小升級,而是可以說「踩下油門」的一大步——機器人離走進我們的家,可能比我們想像得更近。
你可以把它想像成一個「Netflix + 健身教練」的組合包 📺💪。Netflix 是海量的影片,健身教練則是要學會怎麼動。Figure 的 Helix 模型就是這樣:透過看大量人類的日常影片,直接學習我們是怎麼說話、怎麼動作,然後把這些學到的「動作智慧」轉移到機器人身上。
結果是什麼?Helix 現在能做到的事情,已經不只是「把碗放進洗碗機」這類單一步驟,而是能聽你一句「去冰箱拿水」🥤,就真的自己找路、自己移動、自己完成。聽起來是不是很像未來電影?
Helix 在第一人稱人類影片上接受訓練,學習人類如何以智慧方式解決大規模、多樣化的目標。
文章能帶你得到什麼?
- 什麼是 Project Go-Big,以及它為什麼很重要
- Helix 模型的新突破:從人類影片到機器人真的能「零樣本」轉移
- 這對機器人走進家裡、成為真正幫手意味著什麼
- 潛在的挑戰與我們可以關注的方向
Project Go-Big:兩大突破 🚀
這篇文章裡,Figure 宣布了 Helix 的兩項核心進展:

僅用人類影片訓練後,Helix 學會了從自然語言輸入中,在凌亂環境中導航。
1. 網際網路規模的人型預訓練 🌐
- Figure 正在蒐集非常龐大、極具多樣性的「人型機器人可用影片資料」
- 他們與 Brookfield 合作,Brookfield 是全球資產管理巨頭,擁有超過 10 萬個住宅單位、商辦空間、物流場域,場景多到爆炸。這些環境都會被用來蒐集資料,讓 Helix 學到「真實世界」的多樣性。
- 資料蒐集已經開跑,接下來幾個月會持續擴大。
2. 零樣本人類影片 → 機器人轉移 🎥🤖
- Helix 現在只靠「第一人稱人類影片」訓練,沒有任何機器人示範,就能在凌亂的家庭環境中正確導航。
- 指令也變自然了:像「走到餐桌 🍽️」「去澆花 🌱」這類日常語言,Helix 能聽懂並行動。
- 更厲害的是:這是一個單一統一模型,同時處理「手部操作」和「移動導航」,不用再為不同任務切不同系統。
為什麼這些突破意義重大?💡
用一個比喻:以前的機器人就像背課文的學生,老師要教什麼,它就記什麼,超出範圍就呆住。Project Go-Big 的 Helix,則更像是透過看大量生活影片來學語言的小孩,雖然偶爾會摔跤,但懂得舉一反三。
這代表什麼?
- 適應性更高:搬家也不用重新教,因為機器人已經學過各式各樣的房子。
- 互動更自然:用自然語言就能下指令,不用事先設定繁瑣流程。
- 應用更廣:不只會操作,也會走動,這才是家庭助手的完整樣貌。
潛在挑戰與要注意的點 ⚠️
當然,事情不會這麼單純,還有一些挑戰:
- 隱私問題 🔒:家庭影片資料要怎麼保護個人資訊?
- 機械差異 🦾:人類影片能學,但機器人關節、力量、感測方式不同,還是要解決落差。
- 安全性 🛡️:機器人在家走動,如果撞倒東西或不小心絆倒人,就不是幫手而是麻煩。
Mech Muse 的觀點 🎶
我覺得 Project Go-Big 是人型機器人邁向「家庭生活化」的重要里程碑。過去我們常說「AI 很聰明,但機器人還很笨」,現在 Figure 的做法讓這個落差開始縮小。
接下來幾年我會特別關注三件事:
- 資料倫理:家庭影片怎麼收集與處理?
- 硬體進步:機器人的結構能不能跟上 AI 的腦袋?
- 消費者接受度:大家真的願意讓一個人形機器人自由走動在自己家裡嗎?
總結 ✨
Figure 在 2025 年 9 月 18 日公布的 Project Go-Big,為 Helix 帶來了兩大突破:網際網路規模的資料蒐集,還有零樣本人類影片到機器人的轉移。這讓人型機器人不再只是「實驗室裡的酷炫產品」,而是真有機會變成家裡的智慧助手。
未來,也許我們喊一聲「幫我澆花 🌱」「把冰箱門關上 🧊」就能看到機器人輕鬆完成。聽起來是不是很期待?
👉 如果你想持續追蹤這類科技觀察,記得關注我,Mech Muse,每週帶你用輕鬆的角度聊科技的未來!