同時定位與建構地圖

更新於 2024/12/08閱讀時間約 3 分鐘

背景

協調型同時定位與建構地圖(C-SLAM)是在室內、地下、水中等無外部定位系統的環境中,多機器人協同運作的必須要素。傳統的C-SLAM系統可分為集中型和分散型兩類。集中型系統將所有機器人的地圖資料集中到遠端基地站,計算全域SLAM估計。然而,這些系統要求機器人與基地站一直保持可靠不中斷的網路連線,且因與中央伺服器的通訊瓶頸而嚴重限制了擴展性。這種嚴格的網路限制在大規模環境中常常不切實際,因此適合採用只需機器人間不定期通訊而無需中央集權管理的分散式方法。


研究問題

分散式系統受限於機器人的機載運算能力和通訊能力,需要更精細的資料管理和記錄策略來獲得準確的SLAM估計值。大規模機器人團隊或機器人群組要將各自的局部地圖結合或合併以形成環境的共享全域理解,需要應對資源,特別是通訊和運算的限制。


解決方法

Swarm-SLAM是一個具備機器人群組重要特性(可擴展性、靈活性、去中心化、稀疏性)的開源C-SLAM系統。此框架支援各種類型的感測器,如光達、立體攝影機、RGB-D攝影機等,實現比傳統技術大幅減少的通訊量。Swarm-SLAM由三個模組組成:鄰居管理模組:持續追蹤哪些機器人在通訊範圍內(即可靠到達的鄰居),以及交換了哪些資料。此模組使得可擴展操作成為可能。前端:接收里程計估計值和同步的感測器資料作為輸入。接收輸入後,前端從感測器資料中存取特徵並進行資料關聯。採用全域匹配和局部匹配的兩階段方法。全域匹配從感測器資料中存取緊湊的描述子並廣播給鄰近機器人。局部匹配使用局部特徵驗證全域匹配生成的候選位置識別匹配。後端:將前端的機器人內部和機器人間的迴圈閉合測量值與里程計測量值結合成姿態圖。局部姿態圖通過鄰居管理協商發送給選定的機器人進行最佳化,結果估計值返回各機器人。


創新性

Swarm-SLAM引入了基於代數連通性最大化的通訊受限下稀疏預算化機器人間迴圈閉合檢測演算法,以減少資料交換。這種位置識別匹配的預處理使得能夠以更快速度和更少通訊資源實現準確的C-SLAM估計。提案方法的效果在5個不同的資料集和透過臨時網路通訊的3台機器人的實際環境中進行了評估。


參考文獻

  1. https://arxiv.org/abs/2301.06230
  2. https://github.com/MISTLab/Swarm-SLAM
avatar-img
0會員
30內容數
心繫正體中文的科學家,立志使用正體中文撰寫文章。 此沙龍預計涵蓋各項資訊科技知識分享與學習心得
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
風清揚的沙龍 的其他內容
近年來,從自動駕駛(Automated Driving, AD)/先進駕駛輔助系統( Advanced Driver Assistance Systems, ADAS)開始,車輛不斷添加新功能,電子控制單元(Electronic Control Unit, ECU)的數量也隨之增加。
直覺來說注意力機制是我們如何對圖像的不同區域進行視覺關注或如何關聯句子中的詞語。人類的視覺注意力允許我們以「高解析度」聚焦於特定區域(例如,看黃色框中的尖耳朵),同時以「低解析度」感知周圍的圖像(例如,現在雪地背景和服裝如何?),然後相應地調整焦點或進行推理。
近年來,人工智慧(AI)領域有許多讓人興奮的新研究。AlphaGo擊敗了圍棋界最頂尖的職業選手。不久之後,其衍生演算法AlphaGo Zero在沒有人類知識監督學習的情況下以100-0的比分擊敗了AlphaGo。在DOTA2的1v1比賽中,頂級職業玩家輸給了OpenAI開發的機器人。
在利用深度學習的生成模型中,生成對抗網路 (Generative Adversarial Network, GAN)是研究應用方法最多的一種,許多人可能知道它是「讓兩個網路相互競爭來學習」的架構。
本文介紹的論文是IBM和摩根大通的聯合研究論文《Quantum Generative Adversarial Networks for Learning and Loading Random Distributions》,該論文使用量子機器學習來以少量閘重現任意機率分佈。
本文介紹一個研究其提出一種透過接收人類回饋來提高文字生成圖像品質的方法。眾所周知,人類回饋有助於提升文字到圖像生成模型的性能,但傳統方法首先需要學習一個獎勵函數(reward function)來擷取和表達人類的期望,然後根據該獎勵函數改進模型。
近年來,從自動駕駛(Automated Driving, AD)/先進駕駛輔助系統( Advanced Driver Assistance Systems, ADAS)開始,車輛不斷添加新功能,電子控制單元(Electronic Control Unit, ECU)的數量也隨之增加。
直覺來說注意力機制是我們如何對圖像的不同區域進行視覺關注或如何關聯句子中的詞語。人類的視覺注意力允許我們以「高解析度」聚焦於特定區域(例如,看黃色框中的尖耳朵),同時以「低解析度」感知周圍的圖像(例如,現在雪地背景和服裝如何?),然後相應地調整焦點或進行推理。
近年來,人工智慧(AI)領域有許多讓人興奮的新研究。AlphaGo擊敗了圍棋界最頂尖的職業選手。不久之後,其衍生演算法AlphaGo Zero在沒有人類知識監督學習的情況下以100-0的比分擊敗了AlphaGo。在DOTA2的1v1比賽中,頂級職業玩家輸給了OpenAI開發的機器人。
在利用深度學習的生成模型中,生成對抗網路 (Generative Adversarial Network, GAN)是研究應用方法最多的一種,許多人可能知道它是「讓兩個網路相互競爭來學習」的架構。
本文介紹的論文是IBM和摩根大通的聯合研究論文《Quantum Generative Adversarial Networks for Learning and Loading Random Distributions》,該論文使用量子機器學習來以少量閘重現任意機率分佈。
本文介紹一個研究其提出一種透過接收人類回饋來提高文字生成圖像品質的方法。眾所周知,人類回饋有助於提升文字到圖像生成模型的性能,但傳統方法首先需要學習一個獎勵函數(reward function)來擷取和表達人類的期望,然後根據該獎勵函數改進模型。
你可能也想看
Google News 追蹤
Thumbnail
投資新手大多從身邊市場開始著手,選擇台股市場入門,單筆投資或台股定期定額投資,隨著經驗累積,進入美股市場也是好選擇,這篇文章帶你前進美股投資,證券開戶選擇國內券商複委託,使用美股定期定額投資,並以國泰 CUBE App為例說明。 內容目錄: 1.一站式開戶:以國泰世華 CUBE App 為例
Thumbnail
這是張老師的第三本書,我想前二本應該也有很多朋友們都有讀過,我想絕對是受益良多,而這次在書名上就直接點出,著重在從投資的角度來切入
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 新模型和 Human Baselines 排名將不斷變化,Human Baselines 的位置自從基礎模型出現以來,它就不再具有多大意義了,這些排名只是表明經典 NL
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 仔細看 AI說書 - 從0開始 - 66 中,Decoder 的 Multi-Head Attention 框框,會發現有一條線空接,其實它是有意義的,之所以空接,是因
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 45,我們介紹了 Google 於2017 年提出的 Transformer 架構的 Positional Encoding (PE)
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 44說完 Embedding ,下一步就是闡述 Positional Embedding,其於原始 Transformer 架構中的角色
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer模型驅動的人工智慧正在將無所不在的一切連接起來,機器直接與其他機器通訊,人工智慧驅動的物聯網訊號無需人工干預即可觸發自動決策。 自然語言處理演算法
Thumbnail
投資新手大多從身邊市場開始著手,選擇台股市場入門,單筆投資或台股定期定額投資,隨著經驗累積,進入美股市場也是好選擇,這篇文章帶你前進美股投資,證券開戶選擇國內券商複委託,使用美股定期定額投資,並以國泰 CUBE App為例說明。 內容目錄: 1.一站式開戶:以國泰世華 CUBE App 為例
Thumbnail
這是張老師的第三本書,我想前二本應該也有很多朋友們都有讀過,我想絕對是受益良多,而這次在書名上就直接點出,著重在從投資的角度來切入
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 新模型和 Human Baselines 排名將不斷變化,Human Baselines 的位置自從基礎模型出現以來,它就不再具有多大意義了,這些排名只是表明經典 NL
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 仔細看 AI說書 - 從0開始 - 66 中,Decoder 的 Multi-Head Attention 框框,會發現有一條線空接,其實它是有意義的,之所以空接,是因
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 目前我們已經完成: Single-Head Attention 數學說明:AI說書 - 從0開始 - 52 Multi-Head Attention 數學說明:AI
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 45,我們介紹了 Google 於2017 年提出的 Transformer 架構的 Positional Encoding (PE)
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續AI說書 - 從0開始 - 44說完 Embedding ,下一步就是闡述 Positional Embedding,其於原始 Transformer 架構中的角色
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformer模型驅動的人工智慧正在將無所不在的一切連接起來,機器直接與其他機器通訊,人工智慧驅動的物聯網訊號無需人工干預即可觸發自動決策。 自然語言處理演算法