国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于無極FastSLAM算法和匹配優(yōu)化目標(biāo)定位方法及機(jī)器人的制作方法

      文檔序號:6304681閱讀:971來源:國知局
      一種基于無極FastSLAM算法和匹配優(yōu)化目標(biāo)定位方法及機(jī)器人的制作方法
      【專利摘要】本發(fā)明主要針對家庭環(huán)境中的服務(wù)機(jī)器人的自定位與目標(biāo)識別問題,提供了一種新的基于全維視覺的機(jī)器人自定位和目標(biāo)識別算法,結(jié)合目前最常用的兩種定位算法即FastSLAM粒子濾波和匹配優(yōu)化定位算法的優(yōu)點(diǎn),并彌補(bǔ)了各自的不足,以在實(shí)時獲得高精度的自定位的同時實(shí)現(xiàn)有效的全局定位和避障路徑規(guī)劃,使定位算法對環(huán)境的各種動態(tài)因素如視覺系統(tǒng)被大量遮擋、機(jī)器人高速動態(tài)對抗、變化的光線條件等具有很強(qiáng)的魯棒性。
      【專利說明】—種基于無極FastSLAM算法和匹配優(yōu)化目標(biāo)定位方法及機(jī)器人
      [0001]
      【技術(shù)領(lǐng)域】
      [0002]申請涉及智能機(jī)器人的自主導(dǎo)航領(lǐng)域,具體涉及機(jī)器人的定位和目標(biāo)識別領(lǐng)域,尤其涉及一種基于無極FastSLAM算法和匹配優(yōu)化目標(biāo)定位方法及機(jī)器人。
      [0003]
      【背景技術(shù)】
      [0004]智能機(jī)器人,例如,掃地機(jī)器人、機(jī)器人越來越廣泛地應(yīng)用于家庭生活中,機(jī)器人要實(shí)現(xiàn)靈活、高效、智能地移動,需要具有自主導(dǎo)航能力。地圖創(chuàng)建(Map Building)、定位(Location)和路徑規(guī)劃(Path Planning)是自主導(dǎo)航的三個關(guān)鍵要素。本發(fā)明主要涉及地圖創(chuàng)建與同時定位領(lǐng)域。其中,地圖創(chuàng)建與定位是相互依存的關(guān)系,缺少環(huán)境地圖則無法準(zhǔn)確標(biāo)定機(jī)器人的位置,初始位置不確定,則創(chuàng)建的地圖缺少基準(zhǔn)點(diǎn)。正因如此,未知環(huán)境下機(jī)器人的定位與地圖創(chuàng)建將以同時定位與地圖創(chuàng)建的方式來實(shí)現(xiàn),即移動機(jī)器人隨著對環(huán)境的探索,逐步擴(kuò)大自身存儲的地圖的廣度,并實(shí)時的將位置信息標(biāo)定在新創(chuàng)建的地圖中。這種技術(shù)一般稱之為同時定位與地圖生成(SLAM, Simultaneous localization andMapping)。目前,較為常用的智能機(jī)器人的SLAM技術(shù)實(shí)現(xiàn)包括FastSLAM與vSLAM(visualSLAM)兩大類。其中,F(xiàn)astSLAM系統(tǒng)一般使用激光測距儀或聲納來實(shí)現(xiàn),而vSLAM則使用視覺傳感器來實(shí)現(xiàn)。Fas tSLAM由于使用了激光、聲納等傳感器,對一些特殊的環(huán)境信息,如線段、拐角等并不能識別其特殊意義,因此需要通過改進(jìn)算法來提高定位的準(zhǔn)確性。
      [0005]目前較為常見的移動智能機(jī)器人定位技術(shù)主要是根據(jù)先驗(yàn)的環(huán)境信息,結(jié)合當(dāng)前的機(jī)器人位置信息以及傳感器輸入信息,準(zhǔn)確地確定機(jī)器人位姿的過程。主要包括相對定位與絕對定位,絕對定位主要采用導(dǎo)航信標(biāo)、主動或被動標(biāo)識、地圖匹配或衛(wèi)星導(dǎo)航技術(shù)(GPS)進(jìn)行定位,定位精度較高,但對于家用機(jī)器人而言成本較高;相對定位是通過測量機(jī)器人相對于初始位置的距離和方向來確定機(jī)器人的當(dāng)前位置,通常也稱為航位推算法,常用的傳感器包括里程計及慣導(dǎo)系統(tǒng),例如速度陀螺、加速度計等。航位推算法的優(yōu)點(diǎn)是機(jī)器人的位姿是自我推算出來的,不需要對外界環(huán)境的感知信息,缺點(diǎn)是漂移誤差會隨時間累積。
      [0006]具有環(huán)境感知能力是移動機(jī)器人實(shí)現(xiàn)自主的基礎(chǔ),而視覺傳感器是一種能夠?yàn)樽灾饕苿訖C(jī)器人提供最為豐富的環(huán)境信息的傳感器。在各種視覺傳感器中,全維視覺視覺裝置由于具有360°的水平視場角,能夠在一幅圖像中獲取機(jī)器人周圍環(huán)境的全景信息,經(jīng)過圖像處理、分析和理解可實(shí)現(xiàn)機(jī)器人的目標(biāo)識別、建圖、自定位等,因此已經(jīng)在各種移動機(jī)器人中得到了越來越廣泛的應(yīng)用。現(xiàn)有的基于全維視覺系統(tǒng)(或全維視覺系統(tǒng))的移動機(jī)器人定位與路徑規(guī)劃的相關(guān)專利很少,最為接近的現(xiàn)有技術(shù)為發(fā)明專利CN1445685A公開了一種基于通用串行總線的機(jī)器人全維視覺系統(tǒng),該發(fā)明設(shè)計了一種基于通用串行總線的機(jī)器人全維視覺系統(tǒng),多曲面取景器卡在透明保護(hù)罩上,攝像機(jī)安裝在底座上,其鏡頭通過底座上的定位孔,伸入保護(hù)罩內(nèi)并正對取景器的頂端,攝像機(jī)連接圖像采集盒,圖像采集盒通過通用串行總線接口連接后臺計算機(jī)和移動機(jī)器人,多曲面取景器由球面、錐面、平面光滑連接而成。該發(fā)明的系統(tǒng)具有即插即用和支持熱拔插的特點(diǎn),提高了系統(tǒng)在振動環(huán)境中的可靠性和穩(wěn)定性,并通過全新設(shè)計的全維取景器,減小視覺系統(tǒng)的盲區(qū),減少所得圖像的失真度,提高環(huán)境辨識的精度和準(zhǔn)確度,降低系統(tǒng)制造的復(fù)雜度和成本。其它相關(guān)的專利都是基于單目視覺或者立體視覺的機(jī)器人定位與路徑規(guī)劃技術(shù)提出的,例如,發(fā)明申請CN103292804A公開了 一種單目自然視覺路標(biāo)輔助的移動機(jī)器人定位方法,采集到的單目圖像和庫中的視覺路標(biāo)進(jìn)行匹配,建立了基于GIST全局特征和SURF局部特征相結(jié)合的在線圖像快速匹配框架,同時結(jié)合基于單目視覺的運(yùn)動估計算法修正車體航向;發(fā)明申請CN102435188A公開了一種用于室內(nèi)環(huán)境的單目視覺/慣性全自主導(dǎo)航方法,該方法是基于圖像的局部不變特性獲得特征點(diǎn)信息,利用攝像機(jī)運(yùn)動產(chǎn)生的視差形成的對極幾何,求解基礎(chǔ)矩陣,利用標(biāo)定的攝像機(jī)內(nèi)參求解本質(zhì)矩陣,根據(jù)本質(zhì)矩陣獲得攝像機(jī)位姿信息,最后將視覺導(dǎo)航信息與慣導(dǎo)信息結(jié)合獲得相對精確、可靠的導(dǎo)航信息;發(fā)明CN102542563A公開了一種移動機(jī)器人前向單目視覺的建模方法,發(fā)明申請CN102902271A公開了基于雙目視覺的機(jī)器人目標(biāo)識別與抓取系統(tǒng)及方法等。
      [0007]本發(fā)明主要針對家庭環(huán)境中的服務(wù)機(jī)器人的自定位與目標(biāo)識別問題,提供了一種新的基于全維視覺的機(jī)器人自定位和目標(biāo)識別算法,結(jié)合目前最常用的兩種定位算法即FastSLAM粒子濾波和匹配優(yōu)化定位算法的優(yōu)點(diǎn),并彌補(bǔ)了各自的不足,以在實(shí)時獲得高精度的自定位的同時實(shí)現(xiàn)有效的全局定位和避障路徑規(guī)劃,使定位算法對環(huán)境的各種動態(tài)因素如視覺系統(tǒng)被大量遮擋、機(jī)器人高速動態(tài)對抗、變化的光線條件等具有很強(qiáng)的魯棒性。
      [0008]
      【發(fā)明內(nèi)容】

      [0009]本發(fā)明主要針對家庭環(huán)境中的服務(wù)機(jī)器人的定位與避障路徑規(guī)劃問題,提供了一種新的基于全維視覺的機(jī)器人自定位和避障路徑規(guī)劃算法,結(jié)合目前最常用的兩種定位算法即FastSLAM粒子濾波和匹配優(yōu)化定位算法的優(yōu)點(diǎn),并彌補(bǔ)了各自的不足,以在實(shí)時獲得高精度的自定位的同時實(shí)現(xiàn)有效的全局定位和避障路徑規(guī)劃,使定位算法對環(huán)境的各種動態(tài)因素如視覺系統(tǒng)被大量遮擋、機(jī)器人高速動態(tài)對抗、變化的光線條件等具有很強(qiáng)的魯棒性。
      [0010]本發(fā)明公開了一種基于無極FastSLAM算法和匹配優(yōu)化目標(biāo)定位方法,其特征在于,包括:
      視頻采集,由專用的視頻采集卡捕獲聲頻和視頻信息,然后將其進(jìn)行數(shù)據(jù)化處理,再經(jīng)過軟件的壓縮進(jìn)行處理;
      圖像預(yù)處理,對采集到的視頻流每一幀的圖像進(jìn)行前期處理;
      基于顏色信息的目標(biāo)識別,以圖像的顏色信息作為依據(jù),將采集的RGB格式的圖像轉(zhuǎn)化成目標(biāo)物體的識別結(jié)果及其圖像坐標(biāo)位置;
      目標(biāo)定位,給出指定目標(biāo)和機(jī)器人自身所處的位置。
      [0011]本發(fā)明還公開了一種基于無極FastSLAM算法和匹配優(yōu)化目標(biāo)定位的系統(tǒng),其特征在于,包括:
      視頻采集模塊,由專用的視頻采集卡捕獲聲頻和視頻信息,然后將其進(jìn)行數(shù)據(jù)化處理,再經(jīng)過軟件的壓縮進(jìn)行處理;
      圖像預(yù)處理模塊,對采集到的視頻流每一幀的圖像進(jìn)行前期處理;
      基于顏色信息的目標(biāo)識別模塊,以圖像的顏色信息作為依據(jù),將采集的RGB格式的圖像轉(zhuǎn)化成目標(biāo)物體的識別結(jié)果及其圖像坐標(biāo)位置;
      目標(biāo)定位模塊,給出指定目標(biāo)和機(jī)器人自身所處的位置。
      [0012]以及公開了一種基于上述方法進(jìn)行定位的機(jī)器人,所述機(jī)器人包括一感知系統(tǒng)、核心控制模塊、人機(jī)交互系統(tǒng)、電機(jī)驅(qū)動系統(tǒng),所述核心控制模塊對機(jī)器人內(nèi)部各單元進(jìn)行控制,并根據(jù)感知系統(tǒng)反饋的信息,以及外界獲得交互信號控制電機(jī)驅(qū)動系統(tǒng),以控制機(jī)器人的移動。
      [0013]【專利附圖】

      【附圖說明】
      [0014]圖1是智能家庭服務(wù)機(jī)器人組成結(jié)構(gòu)框圖;
      圖2是基于全維視覺系統(tǒng)的家庭服務(wù)機(jī)器人自定位系統(tǒng)框圖;
      圖3是融合無極FastSLAM粒子濾波和匹配優(yōu)化的家庭服務(wù)機(jī)器人自定位算法的流程
      圖;
      圖4是基于全維視覺的無極FastSLASM算法框架圖;
      【具體實(shí)施方式】
      [0015]為使本發(fā)明的目的、技術(shù)方案和優(yōu)點(diǎn)更加清楚明了,下面結(jié)合【具體實(shí)施方式】并參照附圖,對本發(fā)明進(jìn)一步詳細(xì)說明。應(yīng)該理解,這些描述只是示例性的,而并非要限制本發(fā)明的范圍。此外,在以下說明中,省略了對公知結(jié)構(gòu)和技術(shù)的描述,以避免不必要地混淆本發(fā)明的概念。
      [0016]如圖1所示,本發(fā)明主要涉及家庭環(huán)境中的智能機(jī)器人,所述機(jī)器人是具有環(huán)境感知,同時定位與地圖創(chuàng)建、避障路徑規(guī)劃的自主移動機(jī)器人。包括一感知系統(tǒng)、核心控制模塊、人機(jī)交互系統(tǒng)、電機(jī)驅(qū)動系統(tǒng)。所述感知系統(tǒng)接受外界多種途徑輸入的音頻和/或視頻信號,以及其它能感知外界狀態(tài)的信號以及定位信息。這些信號或信息可以來自于環(huán)境感知模塊、全維視覺自定位模塊、語音采集模塊、視頻采集模塊、超聲波測距模塊、里程計信息模塊等模塊的一個或多個模塊。根據(jù)需要,還可以設(shè)置有障礙物檢測模塊、避障路徑規(guī)劃模塊等。通過獲取在普通家庭的環(huán)境內(nèi)感知到的一項(xiàng)或多項(xiàng)如下信息,從而感知周圍環(huán)境的視覺信息、檢測到行走路線周圍的障礙。
      [0017]智能機(jī)器人通過人機(jī)交互系統(tǒng)和/或無線收發(fā)模塊實(shí)現(xiàn)與外界的交互。
      [0018]人機(jī)交互系統(tǒng)顧名思義用于外界與機(jī)器人進(jìn)行交互,這種交互是可以根據(jù)實(shí)際需求進(jìn)行設(shè)置的,例如人工控制機(jī)器人的工作狀態(tài),路徑,設(shè)置相應(yīng)的參數(shù)、模式等等。所述參數(shù)可以是時間參數(shù),頻率參數(shù),速度參數(shù)等,所述模式包括跟隨模式,巡邏模式和異常行為處理模式。人機(jī)交互系統(tǒng)還可以通過設(shè)置在機(jī)器人上的顯示屏或信號燈指示機(jī)器人的工作狀態(tài)。[0019]智能機(jī)器人還可以通過無線收發(fā)模塊接受來自移動終端,例如智能手機(jī)的信號,從而實(shí)現(xiàn)人機(jī)交互。所述人機(jī)交互系統(tǒng)和/或無線收發(fā)模塊均與核心控制模塊連接。
      [0020]所述核心控制模塊對機(jī)器人內(nèi)部各單元進(jìn)行控制,并根據(jù)感知系統(tǒng)反饋的信息,以及外界獲得交互信號控制電機(jī)驅(qū)動系統(tǒng),以控制機(jī)器人的移動。
      [0021]其中所述電機(jī)驅(qū)動系統(tǒng)包括底盤控制器、電機(jī)驅(qū)動器,并裝有移動所需的電池模塊、自主充電功能模塊、輪子等。其中,所述輪子為2個驅(qū)動輪和I個萬向輪。核心控制模塊通過串口向底盤控制器發(fā)送控制命令,控制電機(jī)驅(qū)動器進(jìn)行相應(yīng)動作,并對障礙信號進(jìn)行處理。
      [0022]本申請僅給出了電機(jī)驅(qū)動系統(tǒng)的一種實(shí)施方式,但本領(lǐng)域技術(shù)人員應(yīng)該知曉,任何通過電機(jī)驅(qū)動以實(shí)現(xiàn)機(jī)器人移動的方式,對本申請而言都是顯而易見的。
      [0023]本申請所公開的兩輪驅(qū)動輪和一個萬向輪的結(jié)構(gòu)可以使得機(jī)器人能夠?qū)崿F(xiàn)零半徑轉(zhuǎn)向,前進(jìn)后退左右轉(zhuǎn)動等各種運(yùn)動功能。機(jī)器人上方安置一臺全維視覺系統(tǒng)系統(tǒng),可將實(shí)時采集的周圍環(huán)境信息傳輸?shù)綑C(jī)器人內(nèi)部的上位機(jī)進(jìn)行處理。根據(jù)所獲取的圖像信息,采用本發(fā)明所公開的視頻采集技術(shù)、圖像預(yù)處理技術(shù)、基于顏色信息的目標(biāo)識別技術(shù)、基于無極FastSLAM粒子濾波與匹配優(yōu)化目標(biāo)的定位技術(shù)等完成服務(wù)機(jī)器人的自主定位,使機(jī)器人能夠在家庭環(huán)境中自主導(dǎo)航并完成更多的輔助人類生活的功能。
      [0024]如圖2所示,基于全維視覺系統(tǒng)的家庭服務(wù)機(jī)器人自定位系統(tǒng)主要分為以下四個模塊:視頻采集模塊、圖像預(yù)處理模塊、基于顏色信息的目標(biāo)識別模塊、目標(biāo)定位模塊。
      [0025]I)視頻采集模塊
      視頻采集是指由專用的視頻采集卡捕獲聲頻和視頻信息,然后將其進(jìn)行數(shù)據(jù)化處理,再經(jīng)過軟件的壓縮進(jìn)行處理,這時就可對這些數(shù)據(jù)進(jìn)行保存、回放、傳輸?shù)雀鞣N操作。我們的全維視覺系統(tǒng)中采用基于VFW的視頻捕獲來采集環(huán)境圖像,實(shí)驗(yàn)中在CPU主頻為
      1.66GHz、內(nèi)存容量為504M的計算機(jī)上,采集每一幀圖像耗費(fèi)的時間在125-170ms之間,也即每秒能采集61幀圖像。這樣的采集速度能夠滿足全自主足球機(jī)器人比賽要求的每秒處理5幀圖像的要求。
      [0026]2)圖像預(yù)處理模塊
      我們需要對采集到的視頻流每一幀的圖像進(jìn)行前期處理以滿足下一步目標(biāo)識別的需要,對圖像的預(yù)處理主要分為兩步:一是柱面圖像變換,采集到的圓形全景圖像經(jīng)過柱面圖像變換之后使得圖像更符合人正常視覺的直觀目標(biāo)模型以便更易于進(jìn)行目標(biāo)識別,同時圖像的數(shù)據(jù)量減少了,軟件的實(shí)時性得到了很大程度上的提高;二是顏色空間變換,即將圖像由各顏色分量相關(guān)性高、分散性大的RGB顏色空間轉(zhuǎn)換為各顏色分量相關(guān)性較小、分散性較小的YUV顏色空間。
      [0027]3)基于顏色信息的目標(biāo)識別模塊
      我們以圖像的顏色信息作為依據(jù),提出了一種基于顏色的實(shí)時多目標(biāo)識別算法。該算法的輸入是攝像機(jī)采集的RGB格式的圖像,輸出是目標(biāo)物體的識別結(jié)果及其圖像坐標(biāo)位置。該算法分四個階段進(jìn)行:
      (1)基于顏色的像素聚類;
      (2)基于連通性分析的目標(biāo)區(qū)域提??;
      (3)對提取出的目標(biāo)區(qū)域進(jìn)行生長; (4)基于先驗(yàn)知識的目標(biāo)識別。這四個階段分別對應(yīng)著圖像工程的三個層次:圖像處理、圖像分析和圖像理解。
      [0028]4)目標(biāo)定位模塊
      采集到的全景圖像經(jīng)過圖像處理軟件提取出目標(biāo)圖像位置之后,全景視覺系統(tǒng)最終的目標(biāo)是目標(biāo)定位,即給出指定目標(biāo)和機(jī)器人自身在家庭環(huán)境中的位置,以向家庭服務(wù)機(jī)器人決策機(jī)構(gòu)提供目標(biāo)的距離和方向信息,以便機(jī)器人進(jìn)行控制與決策。
      [0029]如圖3所示,目標(biāo)定位的方法分為兩個方面,(I)基于全維視覺的無極FastSLAM粒子濾波定位算法;(2)匹配優(yōu)化定位,將機(jī)器人觀測到的特征點(diǎn)與環(huán)境信息作匹配,定義誤差函數(shù),并通過優(yōu)化算法尋找機(jī)器人自定位的最優(yōu)解以使誤差函數(shù)最小化。該目標(biāo)定位流程為使用無極FastSLAM粒子濾波進(jìn)行機(jī)器人的初始化全局定位,初始化分布的粒子點(diǎn)坐標(biāo)為電子羅盤的輸出值;判斷FastSLAM是否收斂,若收斂,則使用匹配優(yōu)化定位方法來實(shí)現(xiàn)機(jī)器人的精確跟蹤定位;若不收斂則返回上一步。
      [0030]如圖4所示,基于全維視覺的無極FastSLAM粒子濾波定位算法為全維視覺采集的圖像經(jīng)過拉伸變形和畸變矯正后,進(jìn)行SURF特征提取,當(dāng)前幀提取的特征與前一幀提取的特征進(jìn)行匹配,如匹配成功則定義為環(huán)境路標(biāo),通過時域特征匹配確定當(dāng)前觀測值,區(qū)分新觀測量和已關(guān)聯(lián)部分,再利用無極FastSLAM算法完成攝像機(jī)狀態(tài)和環(huán)境路標(biāo)位置的同時估計,根據(jù)機(jī)器人的初始運(yùn)動估計和時域匹配結(jié)果將當(dāng)前的感知信息加入到FastSLAM框架下的提議分布中,使用無極變換,采樣新位姿來擴(kuò)展機(jī)器人的新路徑,使先驗(yàn)分布采樣粒子向后驗(yàn)高概率區(qū)移動,同時構(gòu)造Sigma點(diǎn)集估計環(huán)境特征的位置,更新路標(biāo),采用自適應(yīng)重采樣計算粒子的權(quán)重,完成基于全維視覺系統(tǒng)下的同時自定位與地圖創(chuàng)建。
      [0031]以上對本發(fā)明實(shí)施例所提供的一種基于無極FastSLAM算法和匹配優(yōu)化目標(biāo)定位方法及機(jī)器人,進(jìn)行了詳細(xì)介紹,本文中應(yīng)用了具體個例對本發(fā)明的原理及實(shí)施方式進(jìn)行了闡述,以上實(shí)施例的說明只是用于幫助理解本發(fā)明的方法及其核心思想;同時,對于本領(lǐng)域的一般技術(shù)人員,依據(jù)本發(fā)明的思想,在【具體實(shí)施方式】及應(yīng)用范圍上均會有改變之處,綜上所述,本說明書內(nèi)容不應(yīng)理解為對本發(fā)明的限制。
      【權(quán)利要求】
      1.一種基于無極FastSLAM算法和匹配優(yōu)化目標(biāo)定位方法,其特征在于,包括: 視頻采集,由專用的視頻采集卡捕獲聲頻和視頻信息,然后將其進(jìn)行數(shù)據(jù)化處理,再經(jīng)過軟件的壓縮進(jìn)行處理; 圖像預(yù)處理,對采集到的視頻流每一幀的圖像進(jìn)行前期處理; 基于顏色信息的目標(biāo)識別,以圖像的顏色信息作為依據(jù),將采集的RGB格式的圖像轉(zhuǎn)化成目標(biāo)物體的識別結(jié)果及其圖像坐標(biāo)位置; 目標(biāo)定位,給出指定目標(biāo)和機(jī)器人自身所處的位置。
      2.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述圖像預(yù)處理進(jìn)一步包括包括: 柱面圖像變換,采集到的圓形全景圖像經(jīng)過柱面圖像變換; 顏色空間變換,將圖像由各顏色分量相關(guān)性高、分散性大的RGB顏色空間轉(zhuǎn)換為各顏色分量相關(guān)性較小、分散性較小的YUV顏色空間。
      3.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述基于顏色信息的目標(biāo)識別進(jìn)一步包括以下步驟: 基于顏色的像素聚類; 基于連通性分析的目標(biāo)區(qū)域提?。? 對提取出的目標(biāo)區(qū)域進(jìn)行生長; 基于先驗(yàn)知識的目標(biāo)識別。
      4.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述目標(biāo)定位進(jìn)一步采用 基于全維視覺的無極FastSLAM粒子濾波定位算法和匹配優(yōu)化定位算法;使用無極FastSLAM粒子濾波進(jìn)行機(jī)器人的初始化全局定位,初始化分布的粒子點(diǎn)坐標(biāo)為電子羅盤的輸出值;判斷FastSLAM是否收斂,若收斂,則使用匹配優(yōu)化定位方法來實(shí)現(xiàn)機(jī)器人的精確跟蹤定位;若不收斂則返回上一步。
      5.根據(jù)權(quán)利要求4所述的方法,其特征在于,所述匹配優(yōu)化定位算法將機(jī)器人觀測到的特征點(diǎn)與環(huán)境信息作匹配,定義誤差函數(shù),并通過優(yōu)化算法尋找機(jī)器人自定位的最優(yōu)解以使誤差函數(shù)最小化。
      6.根據(jù)權(quán)利要求4所述的方法,其特征在于,所述基于全維視覺的無極FastSLAM粒子濾波定位算法包括以下步驟: 全維視覺采集的圖像經(jīng)過拉伸變形和畸變矯正后,進(jìn)行SURF特征提取,當(dāng)前幀提取的特征與前一幀提取的特征進(jìn)行匹配,如匹配成功則定義為環(huán)境路標(biāo),通過時域特征匹配確定當(dāng)前觀測值,區(qū)分新觀測量和已關(guān)聯(lián)部分,再利用無極FastSLAM算法完成攝像機(jī)狀態(tài)和環(huán)境路標(biāo)位置的同時估計,根據(jù)機(jī)器人的初始運(yùn)動估計和時域匹配結(jié)果將當(dāng)前的感知信息加入到FastSLAM框架下的提議分布中,使用無極變換,采樣新位姿來擴(kuò)展機(jī)器人的新路徑,使先驗(yàn)分布采樣粒子向后驗(yàn)高概率區(qū)移動,同時構(gòu)造Sigma點(diǎn)集估計環(huán)境特征的位置,更新路標(biāo),采用自適應(yīng)重采樣計算粒子的權(quán)重,完成基于全維視覺系統(tǒng)下的同時自定位與地圖創(chuàng)建。
      7.一種采用權(quán)利要求1所述方法進(jìn)行定位的機(jī)器人,所述機(jī)器人包括一感知系統(tǒng)、核心控制模塊、人機(jī)交互系統(tǒng)、電機(jī)驅(qū)動系統(tǒng),所述核心控制模塊對機(jī)器人內(nèi)部各單元進(jìn)行控制,并根據(jù)感知系統(tǒng)反饋的信息,以及外界獲得交互信號控制電機(jī)驅(qū)動系統(tǒng),以控制機(jī)器人的移動。
      8.根據(jù)權(quán)利要求7所述的機(jī)器人,其特征在于,所述機(jī)器人還包括全維視覺自定位模塊,以及環(huán)境感知模塊、語音采集模塊、視頻采集模塊、超聲波測距模塊、里程計信息模塊中的一個或多個模塊;感知系統(tǒng)接收所述一個或多個模塊的信號。
      9.根據(jù)權(quán)利要求7所述的機(jī)器人,其特征在于,其中所述電機(jī)驅(qū)動系統(tǒng)包括底盤控制器、電機(jī)驅(qū)動器,并裝有移動所需的電池模塊、自主充電功能模塊、輪子;其中,所述輪子為2個驅(qū)動輪和I個萬向輪,核心控制模塊通過串口向底盤控制器發(fā)送控制命令,控制電機(jī)驅(qū)動器進(jìn)行相應(yīng)動作,并對障礙信號進(jìn)行處理。
      10.一種基于無極FastSLAM算法和匹配優(yōu)化目標(biāo)定位的系統(tǒng),其特征在于,包括: 視頻采集模塊,由專 用的視頻采集卡捕獲聲頻和視頻信息,然后將其進(jìn)行數(shù)據(jù)化處理,再經(jīng)過軟件的壓縮進(jìn)行處理; 圖像預(yù)處理模塊,對采集到的視頻流每一幀的圖像進(jìn)行前期處理; 基于顏色信息的目標(biāo)識別模塊,以圖像的顏色信息作為依據(jù),將采集的RGB格式的圖像轉(zhuǎn)化成目標(biāo)物體的識別結(jié)果及其圖像坐標(biāo)位置; 目標(biāo)定位模塊,給出指定目標(biāo)和機(jī)器人自身所處的位置。
      【文檔編號】G05D1/12GK103901895SQ201410156978
      【公開日】2014年7月2日 申請日期:2014年4月18日 優(yōu)先權(quán)日:2014年4月18日
      【發(fā)明者】蔡則蘇, 王丙祥, 王玲 申請人:江蘇久祥汽車電器集團(tuán)有限公司
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
      1