在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<menu id="6qfwx"><li id="6qfwx"></li></menu>
    1. <menu id="6qfwx"><dl id="6qfwx"></dl></menu>

      <label id="6qfwx"><ol id="6qfwx"></ol></label><menu id="6qfwx"></menu><object id="6qfwx"><strike id="6qfwx"><noscript id="6qfwx"></noscript></strike></object>
        1. <center id="6qfwx"><dl id="6qfwx"></dl></center>

            博客專欄

            EEPW首頁 > 博客 > TRO新文:用于數據關聯(lián)、建圖和高級任務的對象級SLAM框架(1)

            TRO新文:用于數據關聯(lián)、建圖和高級任務的對象級SLAM框架(1)

            發(fā)布人:計算機視覺工坊 時間:2023-07-17 來源:工程師 發(fā)布文章

            圖片

            對象SLAM被認為對于機器人高級感知和決策制定越來越重要?,F有研究在數據關聯(lián)、對象表示和語義映射方面存在不足,并且經常依賴于額外的假設,從而限制了它們的性能。在本文中,我們提出了一個綜合的對象SLAM框架,該框架專注于基于對象的感知和面向對象的機器人任務。首先,我們提出了一種集成數據關聯(lián)方法,用于通過結合參數和非參數統(tǒng)計測試來關聯(lián)復雜條件下的對象。此外,我們建議基于iForest和線對齊的對象建模的離群魯棒質心和尺度估計算法。然后由估計的通用對象模型表示輕量級和面向對象的地圖。考慮到對象的語義不變性,我們將對象圖轉換為拓撲圖以提供語義描述符以實現多圖匹配。最后,我們提出了一種對象驅動的主動探索策略,以在抓取場景中實現自主建圖。

            圖片提出的對象SLAM框架。

            1 系統(tǒng)框架

            本框架主要包含4個模塊:

            1.Tracking module:基于ORB-SLAM2實現相機軌跡跟蹤并生成稀疏點云。

            2.Semantic module:采用YOLO物體檢測網絡,結合點云測量與2D檢測結果進行數據關聯(lián)。利用iForest和線段對齊算法優(yōu)化點云和線段?;陉P聯(lián)和優(yōu)化結果參數化物體。

            3.Object map:實現基于物體的輕量語義地圖表示。

            4.Application module: Augmented reality:基于實際物體姿態(tài)實現虛實模型配準,考慮遮擋和碰撞效果。Scene matching:將對象地圖轉換為拓撲圖,設計物體描述子實現多情景匹配。Active exploration:利用物體不完整度量式信息熵驅動主動構建全局對象地圖,實現抓握場景。

            總的來說,框架實現穩(wěn)健的數據關聯(lián)、精確的物體參數化以及基于語義對象地圖的高層應用,解決了對象SLAM涉及的主要挑戰(zhàn)。語義對象地圖能為機器人抓取、導航、規(guī)劃等復雜任務提供必要信息,有助于實現智能機器人

            2 對象級數據關聯(lián)

            本文提出一個集成方法來執(zhí)行多幀間的對象數據關聯(lián)。關聯(lián)算法主要包含4部分:

            (1) 運動IOU模型:如果全局物體在前兩幀(t-1和t-2)可觀測,則基于勻速運動假設預測當前幀(t)的邊界框,與檢測到的本地物體計算IOU值。

            (2) 非參數檢驗模型:如果連續(xù)觀測到物體失敗,則直接應用非參數Wilcoxon檢驗對P和Q(代表物體點云)進行驗證。假設它們來自同一物體,則應滿足同一分布 fP = fQ 。

            (3) 單樣本t檢驗模型:分析不同視角下物體質心C和c是否來自同一物體。建立t統(tǒng)計量并與臨界值比較:

            圖片(4)投影IOU模型:將三維點云投影到二維圖像,擬合投影邊界框與檢測框的IOU (5) 雙樣本t檢驗模型:如果存在重復物體,則對兩個物體的歷史質心C1和C2建立t統(tǒng)計量并比較,實現合并:

            圖片圖片

            其中d為兩個物體的池化標準差。通過集成利用不同統(tǒng)計特征,提高了數據關聯(lián)的魯棒性和成功率。實驗結果表明,與單一方法相比,集成方法能更有效地關聯(lián)不同視角下的物體,為下一步的參數化奠定基礎。總的來說,該方法充分利用了點云和質心分別顯示的非高斯分布和高斯分布特性,通過不同統(tǒng)計模型集成提高關聯(lián)性能。

            圖片對象級數據關聯(lián)示意圖

            3 對象參數化

            我們利用立方體和二次曲面、圓柱體來表示對象,而不是復雜的實例級或類別級模型。對于具有規(guī)則形狀的對象,例如書本、鍵盤和椅子,我們使用立方體(由它們的頂點 Po 編碼)來表示它們。對于球、瓶、杯等沒有明確方向的非規(guī)則物體,采用二次/圓柱(由其半軸Qo編碼)表示,忽略其方向參數。這里,Po 和 Qo 在對象坐標系中表示,僅取決于尺度 s。為了將這些元素對準到全局地圖,我們還需要估計它們的平移 t 和方向 θ。全局坐標系中的立方體和二次曲面表示如下:

            圖片隨后,提出了基于iForest和線段對齊的離群點過濾算法,實現精確的對象尺度、位置和方位估計。主要包括以下部分:

            (1) 平移和尺度估計:利用iForest去除點云中的離群點,剩余點云實現對象的初始尺度s和位置t估計。算法1描述了基于iForest的算法:

            圖片

            (2) 方位估計:分為初始化和優(yōu)化兩個階段。

            算法2描述了初始化算法:

            圖片

            (3) 對象表示:根據物體形狀使用立方體或對角模型表示,編碼尺度s、位置t和方位角θ。

            總的來說,采用iForest過濾離群點和線段對齊初始化方位角,有效實現了精確的6DOF姿態(tài)估計。最終構建了基于物體類型的通用模型,實現了輕量級語義對象地圖:

            圖片


            *博客內容為網友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



            關鍵詞: AI

            相關推薦

            技術專區(qū)

            關閉