|
重磅干貨,第一時間送達 摘要 近年來,物體檢測和姿態(tài)估計在機器人視覺應(yīng)用中得到了極大的關(guān)注。對感興趣的物體的識別以及對其姿態(tài)的估計仍然是重要的能力,以便機器人為從家庭任務(wù)到工業(yè)操作的眾多機器人應(yīng)用提供有效的協(xié)助。這個問題是特別具有挑戰(zhàn)性的,因為物體具有不同的和潛在的復(fù)雜形狀的異質(zhì)性,以及由于背景雜波和物體之間的部分遮擋而產(chǎn)生的困難。作為這項工作的主要貢獻,作者提出了一個實時的目標(biāo)檢測和位姿估計系統(tǒng),以實現(xiàn)機器人的動態(tài)抓取。這個機器人已經(jīng)經(jīng)過了預(yù)先訓(xùn)練,通過對每個物體的幾個固定姿勢來執(zhí)行一小組規(guī)范抓握動作。當(dāng)機器人面對任意姿態(tài)的未知物體時,該方法允許機器人檢測物體身份及其實際姿態(tài),然后采用規(guī)范抓握來與新姿態(tài)一起使用。為了訓(xùn)練,該系統(tǒng)通過捕獲物體相對于附著在機器人手腕上的抓取器的相對姿態(tài)來定義一個規(guī)范抓取。在測試過程中,一旦檢測到一個新的姿態(tài),就對目標(biāo)進行典型抓取識別,然后通過調(diào)整機器人手臂的關(guān)節(jié)角度進行動態(tài)調(diào)整,使抓取者能夠以新的姿態(tài)抓取目標(biāo)。作者使用類人PR2機器人進行了實驗,并表明所提出的框架可以檢測紋理良好的對象,并在存在可容忍的平面外旋轉(zhuǎn)量的情況下提供準(zhǔn)確的姿態(tài)估計。該機器人能夠成功地抓取任意姿態(tài)的物體,這也說明了該機器人的性能。 在這項工作中,作者提出了一種基于特征檢測器-描述符的檢測方法和一種基于單應(yīng)性的姿態(tài)估計技術(shù),利用深度信息,作者根據(jù)三維空間中的二維平面表示來估計目標(biāo)的姿態(tài)。預(yù)訓(xùn)練機器人執(zhí)行arXiv:2101.07347v1 [cs。一套經(jīng)典把握;典型抓取描述了機器人末端執(zhí)行器應(yīng)該如何以固定姿態(tài)相對于一個物體放置,以便它可以安全地抓取它。之后,機器人能夠?qū)崟r檢測目標(biāo)并估計目標(biāo)的姿態(tài),然后根據(jù)目標(biāo)的新姿態(tài)調(diào)整訓(xùn)練好的規(guī)范抓取。 作者證明了所提出的方法可以檢測一個紋理良好的平面物體,并在可容忍的平面外旋轉(zhuǎn)量內(nèi)估計其準(zhǔn)確的姿態(tài)。作者還在仿人PR2機器人上進行了實驗,以展示該框架的適用性,機器人通過適應(yīng)一系列不同的姿態(tài)來抓取物體。 框架結(jié)構(gòu) 所提出的方法分為兩部分。第一部分概述了多目標(biāo)同時目標(biāo)檢測和姿態(tài)估計的過程,第二部分描述了使用預(yù)先訓(xùn)練的規(guī)范抓取和目標(biāo)姿態(tài)生成自適應(yīng)抓取的過程。 提出了一種用于自適應(yīng)抓取的平面姿態(tài)估計算法(算法1),該算法包括四個階段:(i)特征提取與匹配,(ii)單應(yīng)性估計與透視變換,(iii)物體表面方向向量估計,(iv)利用深度數(shù)據(jù)進行平面姿態(tài)估計。 為了保證機器人能夠自適應(yīng)地抓取物體,作者對機器人進行了一組正則抓取的預(yù)訓(xùn)練。作者把物體和機器人的抓手放在一起,并記錄相對的姿態(tài)。這實際上給出了抓取器相對于物體的姿態(tài)。圖6說明了訓(xùn)練過程,其中機器人的抓手和爆竹盒已被放置在近距離和相對姿態(tài)已被記錄抓取對象從側(cè)面。 實驗結(jié)果 (a),(b),(c)為機器人攝像頭恢復(fù)的位姿,(d),(e),(f)為RViz中可視化的相應(yīng)位姿。 (a)多個物體的位姿估計(b)人持有的物體的位姿估計 作者首先測試了靜態(tài)物體的系統(tǒng),物體被固定在三腳架上。接下來,作者進行實驗,讓一個人拿著這個物體。作者使用了一本貼紙書和一本漫畫書,并對作者的系統(tǒng)進行了全面的姿態(tài)評估。在幾乎所有的實驗中,機器人都成功地以與其訓(xùn)練一致的方式抓住了物體。有一些姿態(tài)是機器人無法達到的-例如,當(dāng)物體沿著機器人參考系的x軸向內(nèi)指向時,末端執(zhí)行器不可能做出頂部抓取。
本研究提出一種方法,使人形機器人能夠利用基于RGB圖像和深度數(shù)據(jù)的平面姿態(tài)估計來抓取物體。作者檢查了四種特征檢測描述符的性能,發(fā)現(xiàn)SIFT是最好的解決方案。作者使用FLANN的K-d樹最近鄰實現(xiàn),并使用Bruteforce Hamming來尋找關(guān)鍵點匹配,并使用RANSAC來估計單應(yīng)性。通過透視變換,利用單應(yīng)矩陣逼近平面物體上的三個標(biāo)準(zhǔn)正交方向向量。根據(jù)三個方向矢量估計平面物體的姿態(tài)。該系統(tǒng)能夠?qū)崟r檢測多個目標(biāo)并估計目標(biāo)的姿態(tài)。作者還在仿人PR2機器人上進行了實驗,以展示該框架的實用性,機器人通過適應(yīng)一系列不同的姿態(tài)來抓取物體。 未來,作者計劃在本文算法中加入GPU加速,進一步提高系統(tǒng)的整體計算效率。作者希望擴展該算法,以自動對某些對象進行優(yōu)先排序,并根據(jù)不同的計劃任務(wù)限制需要檢測的對象的數(shù)量。最后,作者希望為熟悉的對象加入轉(zhuǎn)移抓取配置,并探索其他特征匹配技術(shù),如多探測LSH、分層k-means樹等。 論文鏈接:https:///pdf/2101.07347.pdf 每日堅持論文分享不易,如果喜歡我們的內(nèi)容,希望可以推薦或者轉(zhuǎn)發(fā)給周圍的同學(xué)。 - END - |
|
|
來自: 小白學(xué)視覺 > 《待分類》