壓縮包內(nèi)含有CAD圖紙和說(shuō)明書,均可直接下載獲得文件,所見所得,電腦查看更方便。Q 197216396 或 11970985
一個(gè)有關(guān)移動(dòng)機(jī)器人定位的視覺傳感器模型
Matthias Fichtner Axel Gro_mann
Arti_cial Intelligence Institute
Department of Computer Science
Technische Universitat Dresden
Technical Report WV-03-03/CL-2003-02
摘要
我們提出一個(gè)在走廊和傳感器模型凌亂的奧西環(huán)境下的概率估計(jì)。該模型是基于在相機(jī)中所獲得的圖像特性與本發(fā)明的特征的環(huán)境中的一個(gè)給定的三維幾何模型的比較。所涉及的技術(shù)比最先進(jìn)的攝影測(cè)量方法還簡(jiǎn)單。這使得模型用于概率機(jī)器人的定位方法中。此外,他非常適合傳感器融合。傳感器模型已經(jīng)用于蒙特卡羅定位跟蹤的移動(dòng)機(jī)器人位置導(dǎo)航任務(wù)里。實(shí)證結(jié)果提出了這個(gè)應(yīng)用程序。
1 介紹
準(zhǔn)確的本地化問(wèn)題是移動(dòng)機(jī)器人技術(shù)的基礎(chǔ)。為了成功的解決復(fù)雜的任務(wù),自主機(jī)器人必須可以正確的可靠地估計(jì)其目前的狀態(tài)。該定位方法的選擇通常取決于傳感器的種類和號(hào)碼,有關(guān)操作環(huán)境的先驗(yàn)知識(shí),和可用的計(jì)算資源。最近,應(yīng)用導(dǎo)航技術(shù)已經(jīng)越來(lái)越受歡迎。在室內(nèi)機(jī)器人的技術(shù)中,我們可以區(qū)分的方法是古人的攝影測(cè)量和計(jì)算機(jī)視覺,該方法起源于人工智能機(jī)器人。以視覺為基礎(chǔ)的導(dǎo)航技術(shù)的發(fā)展的一個(gè)重要的技術(shù)貢獻(xiàn)是通過(guò)識(shí)別來(lái)自未知的觀點(diǎn)在使用特征不變的特征單幅圖像的3D對(duì)象的工作。后來(lái),這種技術(shù)拓展到全球定位和同步地圖建設(shè)。
最后系統(tǒng)進(jìn)行位置跟蹤通過(guò)使用一個(gè)環(huán)境的幾何模型和統(tǒng)計(jì)模型的機(jī)器人的不確定性運(yùn)動(dòng)姿勢(shì)和吩咐。機(jī)器人的位置是由一個(gè)高斯分布表示,并通過(guò)卡爾曼濾波更新。尋找相應(yīng)的攝像機(jī)圖像和模型的特點(diǎn)進(jìn)行了優(yōu)化,由此突出姿勢(shì)的不確定性為攝像機(jī)圖像。
在蒙特卡洛定位的基礎(chǔ)上,凝結(jié)算法已經(jīng)成功的應(yīng)用于導(dǎo)游機(jī)器人。這種基于視覺的貝葉斯過(guò)濾技術(shù)利用一個(gè)基于采樣的密度表示。在結(jié)論的對(duì)比中,他可以代表多峰概率分布。由于天花板的視覺地圖,它能定位全球范圍內(nèi)使用標(biāo)量的亮度測(cè)量機(jī)器人。結(jié)合了視覺距離特性和視覺地標(biāo)在機(jī)器人中的應(yīng)用程序提出了一個(gè)建立產(chǎn)線的方法。由于他們的方法依賴于專業(yè)的標(biāo)志性建筑,它并不適用于一次環(huán)境。
我們工作的目的是開發(fā)一種概率傳感器模式的攝像機(jī)位置估計(jì)。給定一個(gè)3D幾何環(huán)境地圖,我們想近似測(cè)量當(dāng)前相機(jī)圖像在某個(gè)地方獲得的機(jī)器人的工作環(huán)境。我們使用這個(gè)傳感器模型與MCL跟蹤在走廊移動(dòng)機(jī)器人導(dǎo)航的位置??赡艿脑挘部梢杂糜诙ㄎ辉陔s亂的辦公環(huán)境和基于形狀的物體的檢測(cè)。
一方面,我們結(jié)合攝影技術(shù)基于地圖的特征攝影與韌帶的靈活性和魯棒性,如處理本地化歧義的能力。另一方面,特征匹配操作應(yīng)該足夠快,以允許傳感器融合。除了視覺輸入,我們想使用距離讀數(shù)從聲波和激光來(lái)提高定位精度。
本文組織如下。在第二節(jié)中,我們討論之前的工作。在第三節(jié)中,我們描述了視覺傳感器模型的組件。在第四節(jié)中,我們目前的實(shí)驗(yàn)結(jié)果通過(guò)MCL位置跟蹤。我們的結(jié)論在第五節(jié)。
2 相關(guān)工作
在經(jīng)典的基于模型的構(gòu)成方法測(cè)定中,我們可以區(qū)分兩個(gè)相互關(guān)聯(lián)的問(wèn)題。對(duì)應(yīng)的問(wèn)題是涉及到求相應(yīng)的模型和圖像特征。這種映射發(fā)生之前,位置模型的模型特性生成使用給定的相機(jī)姿勢(shì)。據(jù)說(shuō)特性可以匹配如果他們相互靠近。而造成的問(wèn)題由3D相機(jī)坐標(biāo)對(duì)世界起源的模型考慮到相對(duì)應(yīng)的功能結(jié)束。顯然,有一個(gè)問(wèn)題需要對(duì)方事先解決,這使得解決任何耦合問(wèn)題非常困難。
上面的經(jīng)典問(wèn)題的解決方案如下假設(shè)—測(cè)試途徑:
(1) 給定一個(gè)攝像機(jī)位置估計(jì),最佳匹配特征對(duì)群體提供初始猜測(cè)。
(2) 對(duì)于每一個(gè)假說(shuō),估計(jì)的相對(duì)相機(jī)的姿勢(shì)被給定計(jì)算誤差的函數(shù)最小化。
(3) 現(xiàn)在有一個(gè)更準(zhǔn)確的姿勢(shì)估計(jì)用于每個(gè)假說(shuō),其余模型特性投射到的圖像與使用相機(jī)的姿勢(shì)有關(guān)。匹配的質(zhì)量評(píng)估使用合適的誤差函數(shù),在所有的假設(shè)收益率中排名。
(4) 排名最高的假設(shè)被選中。
注意,對(duì)應(yīng)的問(wèn)題解決步驟(1)和(3),構(gòu)成問(wèn)題(2)和(4)。
該算法的性能將取決于所使用的特征的類型,例如邊緣,線段,或色彩,以及圖像和模型之間的相似性度量的選擇,在這里被稱為誤差函數(shù)。線段是我們的選擇,因?yàn)樗麄兛梢栽诟淖児庹諚l件下被相對(duì)可靠地檢測(cè)到。作為世界模型,我們使用的操作環(huán)境是一個(gè)線框模型,在VRML中表示。設(shè)計(jì)一個(gè)合適的相似性度量是更加困難的。
原則上,誤差函數(shù)是基于取向差異相應(yīng)行段在圖像和模型中,他們的距離和長(zhǎng)度的差異,為了減少重要性,考慮到目前多有的功能對(duì)。這個(gè)已經(jīng)建立在以下三種常見的措施中。3D被定義為模型線端點(diǎn)之間距離的總和和相應(yīng)的平面。這一措施很大程度上依賴于與相機(jī)相反投影的距離。e2D稱為無(wú)限圖像行,是預(yù)測(cè)模型線的垂直距離對(duì)應(yīng)的端點(diǎn)與無(wú)限延伸線在平面上的圖像。雙測(cè)度,e2D2,簡(jiǎn)稱為在有限模型的線條,是總和超過(guò)所有的圖像線條端點(diǎn)對(duì)應(yīng)在圖像平面奈特雷擴(kuò)展模型的行。
圖1:視覺傳感器模型的處理步驟
限制搜索空間的匹配步驟,提出了限制可能的對(duì)應(yīng)數(shù)量,對(duì)于一個(gè)給定的姿勢(shì)估計(jì)通過(guò)結(jié)合線特性引入感性結(jié)構(gòu)。因?yàn)檫@些初始的對(duì)應(yīng)是通過(guò)e2D1和e2D2評(píng)價(jià)很高的要求強(qiáng)加在初始姿態(tài)估計(jì)與圖像處理作業(yè),包括去除失真和噪聲和特征提取的精度。假設(shè)在完整的長(zhǎng)度下獲得所有可見模型。已經(jīng)證明了一些異常值會(huì)嚴(yán)重影響最初的通訊,在老的原始方法中由于頻繁截?cái)嘁鸬木€路壞下,阻塞和雜物。
3 傳感器模型
我們的方法是出于這個(gè)問(wèn)題是否解決通信問(wèn)題的估計(jì)可以避免相機(jī)姿勢(shì)。相反,我們建議進(jìn)行的圖像和模型的功能相對(duì)簡(jiǎn)單,直接匹配。我們想調(diào)查的準(zhǔn)確性和魯棒性是這種方式所能達(dá)到的水平。
參與本方法的處理步驟示于圖1.從相機(jī)中取出圖像失真后,我們用算子提取邊緣。這個(gè)操作符合在改變光照條件下提取。從邊緣線段確定結(jié)束點(diǎn)的坐標(biāo)被忽略。在這種表示中,截?cái)嗷蚍指罹€將有類似的坐標(biāo)在霍夫空間。同樣,行3D地圖投影到圖像平面使用攝像機(jī)姿態(tài)估計(jì),并考慮到可見性約束,被表示為坐標(biāo)空間。我們已經(jīng)在匹配步驟中設(shè)計(jì)了幾種誤差函數(shù)被用來(lái)作為相似性度量。他們?cè)谙旅婷枋觥?
中心匹配計(jì)數(shù)
該RST相似性度量是基于線段在霍夫空間的距離。我們認(rèn)為只能在一個(gè)長(zhǎng)方形細(xì)胞內(nèi)的霍夫空間模型周圍為中心的功能,這些圖像特征作為可能匹配,對(duì)這些匹配結(jié)果進(jìn)行計(jì)數(shù),并由此對(duì)產(chǎn)生的總和歸一化。從模型特征來(lái)測(cè)量措施應(yīng)該是不變的,就在3D地圖或是經(jīng)營(yíng)環(huán)境的變化不是模仿的對(duì)象。通過(guò)歸一化得到明顯特點(diǎn)的人數(shù)的不變性。具體而言,集中匹配計(jì)數(shù)測(cè)量SCMC被定義為:
其中未命名的使用距離參數(shù)的有效匹配。一般來(lái)說(shuō),這種相似性度量計(jì)算預(yù)期模型的比例至少由一個(gè)測(cè)量圖像點(diǎn)組成。注意,這里端點(diǎn)坐標(biāo)和長(zhǎng)度都不考慮。
網(wǎng)格長(zhǎng)度匹配
所述第二相似性度量是基于行組的總長(zhǎng)度值的比較。圖像中分割線條組合在一起使用一個(gè)統(tǒng)一的離散空間。這種方法類似于霍夫變換擬合的直線。執(zhí)行相同的線路段的三維模型。讓測(cè)量線的長(zhǎng)度落入網(wǎng)格單元,同樣根據(jù)模型,然后網(wǎng)格長(zhǎng)度匹配測(cè)量是:
對(duì)所有包含模型的所有特性的網(wǎng)格單元,這種方法測(cè)量的長(zhǎng)度與預(yù)期的來(lái)衡量。再次,該映射是有方向性的,也就是說(shuō),該模型被用作參考,以獲得噪聲,雜波和動(dòng)態(tài)對(duì)象的不確定性。
近鄰和豪斯多夫距離
此外,我們嘗試了兩個(gè)通用的方法對(duì)兩組幾何實(shí)體的比較:近鄰和豪斯多夫距離。詳細(xì)信息請(qǐng)參閱【7】。都依賴于距離函數(shù),我們基于離散坐標(biāo)空間,即線路參數(shù)和可選的長(zhǎng)度,線性和指數(shù)的方式。查看完整描述【5】。
常見的錯(cuò)誤功能
為了比較,我們還實(shí)施了常用的誤差函數(shù)e3D,e2D1和e2D2,在笛卡爾空間中定義,我們代表行黑森符號(hào)xsinφ-ycosφ=d。通用誤差函數(shù)f,我們定義了相似度測(cè)量:
其中M是一組測(cè)量線,E是一組預(yù)期的行。在e2D1的情況下,f是由兩個(gè)模型之間的垂直距離線端點(diǎn)e1,e2,和無(wú)限擴(kuò)展的圖像行定義為:
同樣,雙重相似性度量,通過(guò)使用誤差函數(shù)e2D2,基于圖像之間的垂直距離線端點(diǎn)和無(wú)限擴(kuò)展行模式。
回憶的誤差函數(shù)e3D模型線端點(diǎn)的距離成正比,視圖平面通過(guò)一個(gè)圖像行和相機(jī),我們可以使用f3D實(shí)例化方程定義為:
獲取概率
理想情況下,我們希望返回單遞減值的相似性度量方法用于預(yù)測(cè)模型的姿勢(shì)估計(jì)和實(shí)際偏離特性的姿勢(shì)估計(jì)。一般,我們的目標(biāo)是在一個(gè)有效而簡(jiǎn)單的視覺傳感器模型中,抽象的想法是特定的姿勢(shì)和環(huán)境條件平均了大量的,獨(dú)立的情況。對(duì)于公度,我們想表達(dá)模型機(jī)器人的相對(duì)坐標(biāo)而不是絕對(duì)坐標(biāo)。換句話說(shuō),我們假設(shè)測(cè)量m的概率,鑒于姿勢(shì)lm的這張照片姿勢(shì)估計(jì)W的世界模型,等于這測(cè)量三維姿勢(shì)偏差的概率和世界模型。
由視覺傳感器模型返回的概率是通過(guò)簡(jiǎn)單的比例獲得:
4 實(shí)驗(yàn)結(jié)果
我們已經(jīng)在一系列實(shí)驗(yàn)中提出了評(píng)估傳感器模型的相似措施。使用理想化條件下人為創(chuàng)建圖像,然后我們將扭曲和噪聲添加到測(cè)試圖像中。隨后,我們使用在走廊已經(jīng)獲得的機(jī)器人真實(shí)圖像。最后,我們使用了傳感器模型穿越走廊跟蹤機(jī)器人的位置。在所有這些情況下,得到的三維可視化模型,他被用來(lái)評(píng)估解決方案。
模擬使用人為創(chuàng)造的圖像
作為第一種評(píng)價(jià),我們生成的合成圖像特性通過(guò)從某個(gè)相機(jī)姿勢(shì)中生成一個(gè)視圖的模型。一般來(lái)說(shuō),我們從右分支到左邊重復(fù)圖1。通過(guò)引入帶來(lái)Δl,我們可以直接顯示其影響相似度值。對(duì)可視化的目的,平移偏差Δx和Δy組成一個(gè)空間偏差Δt。初步實(shí)驗(yàn)顯示只有微不足道的差異時(shí),他們被認(rèn)為是獨(dú)立的。
圖2 :在人為創(chuàng)造的圖像中CMC的性能
對(duì)于每一個(gè)上面給出的相似性度量,至少1500萬(wàn)個(gè)隨機(jī)相機(jī)姿勢(shì)加上一個(gè)隨機(jī)造成偏差的范圍構(gòu)成收益率模型。中央軍委測(cè)量的結(jié)果如圖2所示。使用GNUPLOT的平滑算子得到表面的3D圖。我們注意到一個(gè)獨(dú)特的峰值在零偏差處理單遞減相似性值誤差增加。請(qǐng)注意,這個(gè)簡(jiǎn)單的測(cè)量認(rèn)為端點(diǎn)坐標(biāo)和長(zhǎng)度的行。然而,我們已經(jīng)取得了良好的結(jié)果。
而由此產(chǎn)生的GLM,CMC類似于一個(gè)標(biāo)準(zhǔn)曲線,峰值則更加與眾不同。這符合我們的預(yù)期,因?yàn)樵谶@里考慮到圖像和模型線非常的重要。與中央的測(cè)量相比,在這種方法中會(huì)有偶然的錯(cuò)誤匹配,由于不同的長(zhǎng)度。
緊鄰的衡量是不使用的。雖然線性和指數(shù)加權(quán)方案嘗試,即使考慮到線段的長(zhǎng)度,沒(méi)有獲得獨(dú)特的高峰,在進(jìn)一步考慮中導(dǎo)致其被排除。
基于豪斯多夫距離測(cè)量的表現(xiàn)不如前兩個(gè),CMC和GLM,但是它的方式是所需要的。但其溫和的表現(xiàn)并不支付其最長(zhǎng)的計(jì)算時(shí)間消耗在所有提出的措施中,并隨后被忽視。到目前為止,我們已經(jīng)表明我們的相似性措施可執(zhí)行。接下來(lái),我們將使用誤差函數(shù)在這個(gè)框架中。在我們的設(shè)置函數(shù)e2D1表現(xiàn)很好。由此產(chǎn)生的曲線非常相似措施GLM中的曲線。這兩種方法都表現(xiàn)出一種獨(dú)特的峰值在正確的位置姿態(tài)中偏差為零。注意,線段的長(zhǎng)度直接影響測(cè)量返回的相似度值,雖然兩個(gè)線性屬性有助于衡量e2D1。令人驚訝的是,其他兩個(gè)誤差函數(shù)e2D2和e3D表現(xiàn)不佳。
更現(xiàn)實(shí)的條件
在我們的傳感器模型中為了排除扭曲和嘈雜的圖像數(shù)據(jù),我們描述進(jìn)行另一組實(shí)驗(yàn)。為此,我們應(yīng)用一下所有綜合誤差模型生成的圖像特征匹配模型特性。每個(gè)原始行被復(fù)制的小概率(p值=0.2),并移入空間。任何線路長(zhǎng)度超過(guò)30 像素被分成以概率p=0.3.此外,設(shè)有不存在于模型和噪聲通過(guò)添加隨機(jī)線條圖像中的均勻分布進(jìn)行了模擬。本方向是根據(jù)電流分布的角度產(chǎn)生相當(dāng)?shù)牡湫吞卣鳌?
從第一組實(shí)驗(yàn)中,這些模擬的結(jié)果沒(méi)有顯著地差異。相似度在零偏差的最大值降低,所有的形狀和特征相似性措施仍在考慮保持不變。
使用真實(shí)的走廊照片
對(duì)現(xiàn)實(shí)世界的情況自上述模擬結(jié)果可能是有問(wèn)題的,我們進(jìn)行了另一組實(shí)驗(yàn)取代合成特性測(cè)量的實(shí)際相機(jī)圖像。比較結(jié)果為各種參數(shù)設(shè)置,我們收集圖片2在先驅(qū)機(jī)器人在走廊上離線和記錄功能。對(duì)于走廊示例典型的觀點(diǎn),機(jī)器人姿態(tài)在三維空間中的兩個(gè)不同的位置幾乎被離散化。后將手動(dòng)機(jī)器人在每個(gè)頂點(diǎn)歸零,它執(zhí)行一個(gè)完整的當(dāng)場(chǎng)將逐步記錄圖像。這樣可以確保最高的準(zhǔn)確性造成坐標(biāo)和圖像想關(guān)聯(lián)。這樣,已經(jīng)有超過(guò)3200張圖片收集到64個(gè)不同的位置(x,y)。同樣以上面的模擬,對(duì)姿勢(shì)進(jìn)行了系統(tǒng)選擇從所涵蓋的測(cè)量范圍內(nèi)。通過(guò)傳感器模型指的姿態(tài)偏差Δl中的相同的離散值計(jì)算出的值,根據(jù)公式2中的假設(shè)進(jìn)行平均。
圖3:GLM對(duì)從走廊真實(shí)圖像中表現(xiàn)
結(jié)果可視化的相似性度量空間(x,y)和旋轉(zhuǎn)偏離正確的相機(jī)姿態(tài)CMC衡量展覽一個(gè)獨(dú)特的峰值約零點(diǎn)誤差。當(dāng)然,由于數(shù)量小得多的數(shù)據(jù)樣本相對(duì)于模擬使用合成數(shù)據(jù),曲線的形狀更崎嶇不平,但這是符合我們的期望。
采用此設(shè)置中的GLM措施的結(jié)果示于圖3。因?yàn)樗沂玖艘粋€(gè)更獨(dú)特的峰值相比,CMC的曲線,他或多或少的演示了特征圖譜之間的比較,考慮到了線路的長(zhǎng)度。
蒙特卡洛本地化使用了視覺傳感器模型
我們的目標(biāo)是設(shè)計(jì)一個(gè)概率傳感器相機(jī)安裝在移動(dòng)機(jī)器人的模型上,我們繼續(xù)呈現(xiàn)的結(jié)果應(yīng)用到移動(dòng)機(jī)器人的本地化上。
傳感器的通用接口模型允許它用于貝葉斯本地化方法的校正步驟,例如,標(biāo)準(zhǔn)版的蒙特卡洛本地化算法。統(tǒng)計(jì)獨(dú)立以來(lái),傳感器讀書中呈現(xiàn)了一個(gè)基本假設(shè)線,我們希望的是使用相機(jī)來(lái)代替獲得更高的準(zhǔn)確度和魯棒性除了常用的距離傳感器還有聲吶獲激光。
圖4 :本地化圖像和預(yù)測(cè)模型
在走廊實(shí)驗(yàn)中,移動(dòng)機(jī)器人配備了固定安裝的CCD相機(jī)必須按照預(yù)定的路線形狀的雙重循環(huán)。途中,他必須停在八個(gè)預(yù)定義的位置,或者打開視圖在附近的一個(gè)角落里。每個(gè)圖像捕獲啟動(dòng)MCL的所謂校正步驟和所有樣本的權(quán)重,根據(jù)該傳感器模型重新計(jì)算,收益率密度最高的樣品可能在重新采樣正確的姿勢(shì)坐標(biāo)。在上述預(yù)測(cè)步驟中,將整個(gè)樣本集根據(jù)機(jī)器人的運(yùn)動(dòng)模型和當(dāng)前測(cè)距傳感器的讀數(shù)移入空間。
我們的初步結(jié)果看起來(lái)很有希望。在位置跟蹤實(shí)驗(yàn)中,機(jī)器人被賦予了其開始位置的估計(jì)值,大部分時(shí)間里,機(jī)器人的位置假設(shè)在最好的姿勢(shì)。在這個(gè)實(shí)驗(yàn)中,我們已經(jīng)使用了CMC措施,在圖4中,一個(gè)典型的相機(jī)如圖所示,而機(jī)器人如下所示請(qǐng)求路徑。灰度級(jí)圖像描繪了視覺輸入的失真排除和預(yù)處理后的特征提取,也顯示提取線特征。此外,世界模型是根據(jù)兩個(gè)伸出姿勢(shì),該測(cè)距跟蹤的構(gòu)成和通過(guò)MCL計(jì)算出的估計(jì)值,他大約對(duì)應(yīng)于正確的姿勢(shì),在他們之間,我們觀察和旋轉(zhuǎn)誤差。
畫面還顯示,旋轉(zhuǎn)誤差對(duì)巧合特性有很強(qiáng)的影響程度。對(duì)應(yīng)于上述給出的結(jié)果,數(shù)據(jù)表現(xiàn)出旋轉(zhuǎn)偏差比平移偏差表現(xiàn)出更高的梯度。這一發(fā)現(xiàn)可以解釋出運(yùn)動(dòng)裸關(guān)節(jié)的功能空間,因此我們的相機(jī)傳感器模型將在檢測(cè)旋轉(zhuǎn)中個(gè)出現(xiàn)分歧。像我們的先鋒軸承旋轉(zhuǎn)測(cè)程法遠(yuǎn)高于平移誤差,這個(gè)屬性使它特別適用于雙輪驅(qū)動(dòng)的機(jī)器人。
5 結(jié)論和未來(lái)的工作
我們已經(jīng)提出了一個(gè)概率傳感器模型攝像機(jī)位置估計(jì)。通用的設(shè)計(jì)使得它適合與距離傳感器融合來(lái)感知來(lái)自其他的傳感器。在理想和現(xiàn)實(shí)的條件下,我們展示了廣泛的模擬和確定了合適的相似性度量。傳感器模型的本地化任務(wù)的移動(dòng)機(jī)器人的申請(qǐng)符合我們的預(yù)測(cè)偏差。在本文中我們強(qiáng)調(diào)了很多可以改進(jìn)的空間。
我們正在研究合適的技術(shù)來(lái)定量地評(píng)價(jià)定位算法的設(shè)計(jì)傳感器模型的移動(dòng)機(jī)器人的性能。這將使我們能夠嘗試雜亂的環(huán)境和動(dòng)態(tài)對(duì)象。結(jié)合相機(jī)傳感器模型使用的距離傳感器融合信息呈現(xiàn)強(qiáng)勁的下一個(gè)步驟和導(dǎo)航。因?yàn)橛杏玫墓δ軘?shù)量顯著變化作為機(jī)器人穿越室內(nèi)環(huán)境,這個(gè)想法駕馭相機(jī)對(duì)準(zhǔn)更豐富的視圖(主動(dòng)視覺)提供了一個(gè)很有前途的研究路徑,以及強(qiáng)大的導(dǎo)航功能。
參考文獻(xiàn)
[1] F. Dellaert, W. Burgard, D. Fox, and S. Thrun. Using the condensation algorithm for robust, vision-based mobile robot localisation. In Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition, 1999.
[2] D. DeMenthon, P. David, and H. Samet. SoftPOSIT: An algorithm for registration of 3D models to noisy perspective images combining Softassign and POSIT. Technical report, University of Maryland, MD, 2001.
[3] G. N. DeSouza and A. C. Kak. Vision for mobile robot navigation: A survey. IEEE Trans. on Pattern Analysis and Machine Intelligence, 24(2):237{267, 2002.
[4] S. Enderle, M. Ritter, D. Fox, S. Sablatnog, G. Kraetzschmar, and G. Palm. Soccer-robot localisation using sporadic visual features. In Intelligent Autonomous Systems 6, pages 959{966. IOS, 2000.
[5] M. Fichtner. A camera sensor model for sensor fusion. Master's thesis, Dept. of Computer Science, TU Dresden, Germany, 2002.
[6] S. A. Hutchinson, G. D. Hager, and P. I. Corke. A tutorial on visual servo control. IEEE Trans. on Robotics and Automation, 12(5):651{ 670, 1996.
[7] D. P. Huttenlocher, G. A. Klanderman, and W. J. Rucklidge. Comparing images using the Hausdor_ distance. IEEE Trans. on Pattern Analysis and Machine Intelligence, 15(9):850{863, 1993.
[8] A. Kosaka and A. C. Kak. Fast vision-guided mobile robot navigation using model-based reasoning and prediction of uncertainties. Com- puter Vision, Graphics, and Image Processing { Image Understanding, 56(3):271{329, 1992.
[9] R. Kumar and A. R. Hanson. Robust methods for estimating pose and a sensitivity analysis. Computer Vision, Graphics, and Image Processing { Image Understanding, 60(3):313{342, 1994.
[10] D. G. Lowe. Three-dimensional object recognition from single twodimensional images. Arti_cial Intelligence, 31(3):355{395, 1987.
[11] S. Se, D. G. Lowe, and J. Little. Vision-based mobile robot localization and mapping using scale-invariant features. In Proc. of the IEEE Int. Conf. on Robotics and Automation, pages 2051{2058, 2001.
[12] G. D. Sullivan, L. Du, and K. D. Baker. Quantitative analysis of the viewpoint consistency constraint in model-based vision. In Proc. of the 4th Int. IEEE Conf. on Computer Vision, pages 632{639, 1993.
- 12 -