付費限定

🦾 THOR:讓人形機器人「硬碰硬」也能穩如人類

Mech muse 智慧新知-avatar-img
發佈於付費專區 個房間
更新 發佈閱讀 6 分鐘

嗨我是 Mech Muse 👋

今天想跟大家聊一篇很實用、又讓我眼睛一亮的研究——THOR:讓人形機器人在高接觸、強拉扯的環境裡,更像人一樣反應的控制框架。

如果你對人形機器人有興趣,這篇會讓你收穫滿滿:

你會知道它解決的真問題是什麼、怎麼做到、實驗效果到底多強,還有它對未來工廠、服務業、甚至台灣供應鏈的啟示。


💥 為什麼「強接觸」是人形機器人的最後一哩路

以行動支持創作者!付費即可解鎖
本篇內容共 2077 字、3 則留言,僅發佈於付費專區、人型機器人 x AI你目前無法檢視以下內容,可能因為尚未登入,或沒有該房間的查看權限。
留言
avatar-img
留言分享你的想法!
avatar-img
Mech muse 智慧新知
51會員
799內容數
因為喜歡分享科技新知,所以創立這個部落格,目前主要分享人型機器人,偶爾分享一些AI、小型核能的最新趨勢,讓你即時掌握最新消息。 聯絡我:mechmuse32@gmail.com
Mech muse 智慧新知的其他內容
2025/10/31
這篇文章會帶你了解擎朗(KEENON)如何把人形機器人 XMAN-R1 正式導入上海虹橋機場飯店,成為全球首例「通用+專用」協作應用案例。你會看到這項技術的發展時間線、實際應用場景、導入關鍵與營運效益,幫助你掌握服務型機器人落地的最新趨勢。
Thumbnail
2025/10/31
這篇文章會帶你了解擎朗(KEENON)如何把人形機器人 XMAN-R1 正式導入上海虹橋機場飯店,成為全球首例「通用+專用」協作應用案例。你會看到這項技術的發展時間線、實際應用場景、導入關鍵與營運效益,幫助你掌握服務型機器人落地的最新趨勢。
Thumbnail
2025/10/30
這篇文章會帶你掌握最新的人形機器人市場趨勢 🤖。你將看到:價格如何跌破 1 萬美元、2023–2025 的關鍵事件時間線、背後的技術與商業模式突破=。讀完能快速理解未來 15 年人形機器人產業的大方向。
2025/10/30
這篇文章會帶你掌握最新的人形機器人市場趨勢 🤖。你將看到:價格如何跌破 1 萬美元、2023–2025 的關鍵事件時間線、背後的技術與商業模式突破=。讀完能快速理解未來 15 年人形機器人產業的大方向。
2025/10/29
這篇文章幫你快速掌握 Richtech 推出的 Dex 人形機器人:它結合「雙手操作+輪式移動」,強調務實落地,不是花俏表演。你會看到 Dex 的特色、Richtech 的發展時間線、為什麼用輪子不用腳、什麼是 loco-manipulation,以及 NVIDIA 在背後的角色。
Thumbnail
2025/10/29
這篇文章幫你快速掌握 Richtech 推出的 Dex 人形機器人:它結合「雙手操作+輪式移動」,強調務實落地,不是花俏表演。你會看到 Dex 的特色、Richtech 的發展時間線、為什麼用輪子不用腳、什麼是 loco-manipulation,以及 NVIDIA 在背後的角色。
Thumbnail
看更多
你可能也想看
Thumbnail
不是每個人都適合自己操盤,懂得利用「專業」,才是績效拉開差距的開始
Thumbnail
不是每個人都適合自己操盤,懂得利用「專業」,才是績效拉開差距的開始
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在 AI說書 - 從0開始 - 114 建立了 Transformer 模型。 現在我們來載入預訓練權重,預訓練的權重包含 Transformer 的智慧
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Vaswani 等人 2017 年解決了設計 Transformer 時最困難的 NLP 問題之一,對於我們人機智慧設計師來說,機器翻譯的人類基準似乎遙不可及,然而,這
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Vaswani 等人 2017 年解決了設計 Transformer 時最困難的 NLP 問題之一,對於我們人機智慧設計師來說,機器翻譯的人類基準似乎遙不可及,然而,這
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 可以透過繼承預訓練模型 (Pretrained Model) 來微調 (Fine-Tune) 以執行下游任務。 Pretrained Mo
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 如 AI說書 - 從0開始 - 78 所述,經過 AI說書 - 從0開始 - 74 到目前為止的實驗,應可以漸漸感受到 Transformer 模型如何從數學層面漸漸往
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer 中的 Attention 機制是 'Word-to-Word' 操作,抑或是 'Token-to-Token' 操作,白話來講就是:「對於句子中
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News