一種機器人智能仿真測試方法
【專利摘要】本發(fā)明屬于智能信息【技術(shù)領(lǐng)域】,具體涉及一種機器人智能仿真測試方法。本發(fā)明的方法采用視覺圖像仿真器生成包含視覺背景和目標(biāo)的仿真視覺圖像;采用跟蹤算法仿真器獲取仿真視覺圖像中的目標(biāo),并實時輸出目標(biāo)脫靶量;機器人仿真器根據(jù)目標(biāo)脫靶量解算出機器人各關(guān)節(jié)的最優(yōu)執(zhí)行值以使機器人的視覺傳感器對準(zhǔn)目標(biāo),并實現(xiàn)實時跟蹤功能;撤去視覺仿真器、跟蹤算法仿真器和機器人仿真器中的一個或兩個仿真器,并以相應(yīng)的真實部件代替,以實物、仿真器相結(jié)合的方式完成視覺跟蹤機器人的測試。本發(fā)明解決了現(xiàn)有技術(shù)難以滿足大規(guī)模機器人測試要求的技術(shù)問題,取得了測試效率高、測試穩(wěn)定性好、測試精度高的有益效果。
【專利說明】 一種機器人智能仿真測試方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明屬于智能信息【技術(shù)領(lǐng)域】,具體涉及一種機器人智能仿真測試方法。
【背景技術(shù)】
[0002]隨著科學(xué)技術(shù)信息化、智能化的發(fā)展,機器人技術(shù)得到了國內(nèi)外學(xué)者的廣泛關(guān)注,且呈現(xiàn)出規(guī)模越來越大、復(fù)雜度越來越高的發(fā)展態(tài)勢。通過對機器人進行測試,能夠發(fā)現(xiàn)設(shè)備中隱藏的問題和設(shè)計缺陷,是保障機器人質(zhì)量和可靠性的重要手段。
[0003]傳統(tǒng)的機器人測試手段主要采用人工實驗測試的方式,存在測試效率低、測試穩(wěn)定性差、測試精度低等缺點,難以滿足大規(guī)模機器人的測試要求。\
【發(fā)明內(nèi)容】
[0004]本發(fā)明需要解決的技術(shù)問題為:現(xiàn)有機器人測試系統(tǒng)測試效率低、測試穩(wěn)定性差、測試精度低,難以滿足大規(guī)模機器人的測試要求。
[0005]本發(fā)明的技術(shù)方案如下所述:
[0006]一種機器人智能仿真測試方法,包括以下步驟:
[0007]步驟1:通過參數(shù)配置計算機初始化參數(shù);
[0008]步驟2:將初始化后的參數(shù)傳輸至視覺圖像仿真器;
[0009]步驟3:視覺圖像仿真器接收初始化參數(shù)和機器人當(dāng)前狀態(tài)后生成包含視覺背景和目標(biāo)的仿真視覺圖像;
[0010]步驟4:跟蹤算法仿真器接收仿真視覺圖像后,對圖像進行智能識別,獲取仿真視覺圖像中的目標(biāo),并實時輸出目標(biāo)脫靶量;
[0011]步驟5:機器人仿真器接收到目標(biāo)脫靶量后,根據(jù)目標(biāo)脫靶量解算出機器人各關(guān)節(jié)的最優(yōu)執(zhí)行值以使機器人的視覺傳感器對準(zhǔn)目標(biāo),并通過控制仿真模塊實現(xiàn)實時跟蹤功倉泛;
[0012]步驟6:返回步驟2,記錄跟蹤算法仿真器輸出的脫靶量直至其穩(wěn)定在步驟I設(shè)置的系統(tǒng)穩(wěn)定閾值范圍內(nèi);
[0013]步驟7:根據(jù)測試需求撤去上述視覺仿真器、跟蹤算法仿真器和機器人仿真器中的一個或兩個仿真器,并以相應(yīng)的真實部件代替,之后重復(fù)步驟上述步驟1-5,并記錄跟蹤算法輸出的脫靶量,以實物、仿真器相結(jié)合的方式完成視覺跟蹤機器人的測試:若脫靶量小于等于系統(tǒng)穩(wěn)定閾值,則機器人合格;否則,機器人不合格。
[0014]作為優(yōu)選方案:步驟3包括以下步驟:
[0015]步驟3.1:通過初始化的參數(shù)和視覺跟蹤機器人狀態(tài),從已經(jīng)獲得的當(dāng)前工作環(huán)境下的魚眼全景圖像中仿真出視覺傳感器拍攝到的背景圖像區(qū)域,并將該區(qū)域魚眼圖像轉(zhuǎn)換成經(jīng)典圖像;
[0016]步驟3.2:對需要跟蹤的目標(biāo)進行建模仿真
[0017]步驟3.3:結(jié)合目標(biāo)在圖像背景中的實時位置將圖像背景和仿真的目標(biāo)圖像進行圖像融合,形成最終的仿真視覺圖像。
[0018]作為優(yōu)選方案:步驟3.2包括以下步驟:
[0019]步驟3.2.1:對目標(biāo)外形、實時空間位置及反射系數(shù)進行三維建模;
[0020]步驟3.3.2:對三維建模后的目標(biāo)表面劃分計算網(wǎng)格;
[0021]步驟3.2.3:通過設(shè)置在機器人上的視覺傳感器位置和姿態(tài)對目標(biāo)表面每個網(wǎng)格節(jié)點進行投影,將網(wǎng)格節(jié)點投影到成像平面中;
[0022]步驟3.2.4:通過光源位置計算每個網(wǎng)格節(jié)點的光線反射角,結(jié)合目標(biāo)反射系數(shù)并通過光線反射角大小仿真出該網(wǎng)格節(jié)點的圖像亮度;
[0023]步驟3.2.5:對于不同的網(wǎng)格節(jié)點投影到成像平面上同一個像素點的情況,選擇離相機位置最近的那個節(jié)點作為成像點,其他網(wǎng)格節(jié)點數(shù)據(jù)由于被遮擋不再進行仿真計笪
ο
[0024]本發(fā)明的有益效果為:
[0025](I)本發(fā)明的一種機器人智能仿真測試方法,將計算機技術(shù)、機械技術(shù)、信號處理技術(shù)、傳感器技術(shù)等相關(guān)理論和技術(shù)相結(jié)合,能夠顯著提高測試效率、穩(wěn)定性和精度,能夠滿足大規(guī)模視覺跟蹤機器人的測試要求;
[0026](2)本發(fā)明的一種機器人智能仿真測試方法,能夠根據(jù)不同應(yīng)用設(shè)計不同測試場景和流程,測試目的指向性強;
[0027](3)本發(fā)明的一種機器人智能仿真測試方法,通過精確的定時與觸發(fā)時鐘,能夠?qū)崿F(xiàn)系統(tǒng)同步;
[0028](4)本發(fā)明的一種機器人智能仿真測試方法,實現(xiàn)了視覺跟蹤機器人的智能檢測與及時反饋,測試人員能夠及時掌握系統(tǒng)運作狀況和存在問題,有效提高工作效率,可以廣泛應(yīng)用于農(nóng)業(yè)、工業(yè)、交通、國防等領(lǐng)域。
【專利附圖】
【附圖說明】
[0029]圖1為本發(fā)明的一種機器人智能仿真測試方法設(shè)備布局圖。
【具體實施方式】
[0030]下面結(jié)合附圖和實施例對本發(fā)明的一種機器人智能仿真測試方法進行詳細說明。
[0031]本發(fā)明涉及到的一種機器人的功能及工作原理:
[0032]該機器人為一種基于視覺的目標(biāo)跟蹤機器人,主要功能為:對設(shè)定的運動目標(biāo)進行監(jiān)視跟蹤,并實時輸出目標(biāo)在視覺傳感器(如相機)中的實時位置。該機器人主要包含了機器人初始參數(shù)配置模塊、機器人執(zhí)行機構(gòu)(如機械臂)、目標(biāo)檢測跟蹤模塊和視覺傳感器。工作原理:首先對機器人各參數(shù)進行初始化配置,視覺傳感器拍攝到運動目標(biāo)后通過目標(biāo)檢測跟蹤模塊從拍攝的圖像中找出需跟蹤目標(biāo)并輸出目標(biāo)在圖像中的實時位置(即脫靶量),機器人執(zhí)行機構(gòu)接收脫靶量后根據(jù)目標(biāo)脫靶量解算出機器人各關(guān)節(jié)的最優(yōu)執(zhí)行值以使機器人的視覺傳感器對準(zhǔn)目標(biāo),并通過控制模塊實現(xiàn)跟蹤功能。
[0033]如圖1所示,實現(xiàn)本實施例方法的機器人智能仿真測試系統(tǒng),包括參數(shù)配置計算機、視覺仿真器、跟蹤算法仿真器和機器人仿真器:參數(shù)配置計算機于仿真測試初始時刻進行參數(shù)配置;視覺仿真器仿真出機器人拍攝到的視覺圖像;跟蹤算法仿真器對視覺仿真器輸出的仿真視覺圖像進行智能識別并輸出目標(biāo)在仿真圖像中的位置,即目標(biāo)脫靶量;機器人仿真器根據(jù)機器人當(dāng)前狀態(tài)和目標(biāo)脫靶量規(guī)劃機器人的跟蹤任務(wù),并將機器人仿真器執(zhí)行跟蹤任務(wù)后的新狀態(tài)反饋至視覺仿真器。所述機器人的狀態(tài),是指機器人各關(guān)節(jié)的轉(zhuǎn)動角度狀態(tài)。
[0034]所述參數(shù)配置計算機主要對視覺仿真器的分辨率和視場角、機器人仿真器的ro控制參數(shù)和系統(tǒng)穩(wěn)定閾值等參數(shù)進行配置。
[0035]所述視覺仿真器包括視覺背景仿真模塊和目標(biāo)仿真模塊:視覺背景仿真模塊根據(jù)機器人當(dāng)前狀態(tài)及背景環(huán)境仿真出當(dāng)前機器人的視覺傳感器能夠拍攝到的環(huán)境背景圖像;目標(biāo)仿真模塊根據(jù)機器人當(dāng)前狀態(tài)和目標(biāo)的形狀、當(dāng)前空間位置及光學(xué)特性仿真出目標(biāo)圖像;環(huán)境背景圖像和目標(biāo)圖像采用現(xiàn)有技術(shù)相融合,形成仿真視覺圖像。
[0036]所述跟蹤算法仿真器采用卡爾曼濾波算法,能夠?qū)C動目標(biāo)進行有效監(jiān)視及跟足示O
[0037]所述機器人仿真器包括機器人運動仿真模塊和控制仿真模塊:機器人運動仿真模塊用于模擬機器人機械機構(gòu)的運動狀態(tài);控制仿真模塊用于接收機器人目標(biāo)狀態(tài)并結(jié)合其當(dāng)前狀態(tài)后輸出行進路線等控制策略。其中,機器人目標(biāo)狀態(tài)是指設(shè)置在機器人上的視覺傳感器指向被跟蹤目標(biāo)時,機器人各機械關(guān)節(jié)的轉(zhuǎn)動角度狀態(tài);機器人當(dāng)前狀態(tài)是指機器人當(dāng)前時刻各關(guān)節(jié)的轉(zhuǎn)動角度狀態(tài)。
[0038]本實施例的一種機器人智能仿真測試方法,通過以下步驟進行測試:
[0039]步驟1:通過參數(shù)配置計算機初始化參數(shù)。
[0040]步驟2:將初始化后的參數(shù)傳輸至視覺圖像仿真器。
[0041]步驟3:視覺圖像仿真器接收初始化參數(shù)和機器人當(dāng)前狀態(tài)后生成包含視覺背景和目標(biāo)的仿真視覺圖像。
[0042]步驟3.1:通過初始化的參數(shù)和視覺跟蹤機器人狀態(tài),從已經(jīng)獲得的當(dāng)前工作環(huán)境下的魚眼全景圖像中仿真出視覺傳感器拍攝到的背景圖像區(qū)域,并將該區(qū)域魚眼圖像轉(zhuǎn)換成經(jīng)典圖像。
[0043]步驟3.2:對需要跟蹤的目標(biāo)進行建模仿真
[0044]步驟3.2.1:對目標(biāo)外形、實時空間位置及反射系數(shù)等參數(shù)進行三維建模;
[0045]步驟3.2.2:對三維建模后的目標(biāo)表面劃分計算網(wǎng)格;
[0046]步驟3.2.3:通過設(shè)置在機器人上的視覺傳感器位置和姿態(tài)對目標(biāo)表面每個網(wǎng)格節(jié)點進行投影,將網(wǎng)格節(jié)點投影到成像平面中;
[0047]步驟3.2.4:通過光源位置計算每個網(wǎng)格節(jié)點的光線反射角,結(jié)合目標(biāo)反射系數(shù)并通過光線反射角大小仿真出該網(wǎng)格節(jié)點的圖像亮度;
[0048]步驟3.2.5:對于不同的網(wǎng)格節(jié)點投影到成像平面上同一個像素點的情況,選擇離相機位置最近的那個節(jié)點作為成像點,其他網(wǎng)格節(jié)點數(shù)據(jù)由于被遮擋不再進行仿真計笪
ο
[0049]步驟3.3:結(jié)合目標(biāo)在圖像背景中的實時位置將圖像背景和仿真的目標(biāo)圖像進行圖像融合,形成最終的仿真視覺圖像。
[0050]步驟4:跟蹤算法仿真器接收仿真視覺圖像后,對圖像進行智能識別,獲取仿真視覺圖像中的目標(biāo),并實時輸出目標(biāo)脫靶量。
[0051]步驟5:機器人仿真器接收到目標(biāo)脫靶量后,根據(jù)目標(biāo)脫靶量解算出機器人各關(guān)節(jié)的最優(yōu)執(zhí)行值以使機器人的視覺傳感器對準(zhǔn)目標(biāo),并通過控制仿真模塊實現(xiàn)實時跟蹤功倉泛。
[0052]步驟6:返回步驟2,記錄跟蹤算法仿真器輸出的脫靶量直至其穩(wěn)定在步驟I設(shè)置的系統(tǒng)穩(wěn)定閾值范圍內(nèi);
[0053]步驟7:根據(jù)測試需求撤去上述視覺仿真器、跟蹤算法仿真器和機器人仿真器中的一個或兩個仿真器,并以相應(yīng)的真實部件代替,之后重復(fù)步驟上述步驟1-5,并記錄跟蹤算法輸出的脫靶量,以半實物半仿真的方式完成視覺跟蹤機器人的測試:若脫靶量小于等于系統(tǒng)穩(wěn)定閾值,則機器人合格;否則,機器人不合格。
[0054]以上具體實施例僅用于舉例說明本發(fā)明的結(jié)構(gòu)和流程,本領(lǐng)域技術(shù)人員在本發(fā)明的構(gòu)思下可以做出多種變形和變化,這些變形和變化均包括在本發(fā)明的保護范圍之內(nèi)。
【權(quán)利要求】
1.一種機器人智能仿真測試方法,其特征在于:包括以下步驟: 步驟1:通過參數(shù)配置計算機初始化參數(shù); 步驟2:將初始化后的參數(shù)傳輸至視覺圖像仿真器; 步驟3:視覺圖像仿真器接收初始化參數(shù)和機器人當(dāng)前狀態(tài)后生成包含視覺背景和目標(biāo)的仿真視覺圖像; 步驟4:跟蹤算法仿真器接收仿真視覺圖像后,對圖像進行智能識別,獲取仿真視覺圖像中的目標(biāo),并實時輸出目標(biāo)脫靶量; 步驟5:機器人仿真器接收到目標(biāo)脫靶量后,根據(jù)目標(biāo)脫靶量解算出機器人各關(guān)節(jié)的最優(yōu)執(zhí)行值以使機器人的視覺傳感器對準(zhǔn)目標(biāo),并通過控制仿真模塊實現(xiàn)實時跟蹤功能;步驟6:返回步驟2,記錄跟蹤算法仿真器輸出的脫靶量直至其穩(wěn)定在步驟I設(shè)置的系統(tǒng)穩(wěn)定閾值范圍內(nèi); 步驟7:根據(jù)測試需求撤去上述視覺仿真器、跟蹤算法仿真器和機器人仿真器中的一個或兩個仿真器,并以相應(yīng)的真實部件代替,之后重復(fù)步驟上述步驟1-5,并記錄跟蹤算法輸出的脫靶量,以實物、仿真器相結(jié)合的方式完成視覺跟蹤機器人的測試:若脫靶量小于等于系統(tǒng)穩(wěn)定閾值,則機器人合格;否則,機器人不合格。
2.根據(jù)權(quán)利要求1所述的一種機器人智能仿真測試方法,其特征在于: 步驟3包括以下步驟: 步驟3.1:通過初始化的參數(shù)和視覺跟蹤機器人狀態(tài),從已經(jīng)獲得的當(dāng)前工作環(huán)境下的魚眼全景圖像中仿真出視覺傳感器拍攝到的背景圖像區(qū)域,并將該區(qū)域魚眼圖像轉(zhuǎn)換成經(jīng)典圖像; 步驟3.2:對需要跟蹤的目標(biāo)進行建模仿真 步驟3.3:結(jié)合目標(biāo)在圖像背景中的實時位置將圖像背景和仿真的目標(biāo)圖像進行圖像融合,形成最終的仿真視覺圖像。
3.根據(jù)權(quán)利要求2所述的一種機器人智能仿真測試方法,其特征在于: 步驟3.2包括以下步驟: 步驟3.2.1:對目標(biāo)外形、實時空間位置及反射系數(shù)進行三維建模; 步驟3.3.2:對三維建模后的目標(biāo)表面劃分計算網(wǎng)格; 步驟3.2.3:通過設(shè)置在機器人上的視覺傳感器位置和姿態(tài)對目標(biāo)表面每個網(wǎng)格節(jié)點進行投影,將網(wǎng)格節(jié)點投影到成像平面中; 步驟3.2.4:通過光源位置計算每個網(wǎng)格節(jié)點的光線反射角,結(jié)合目標(biāo)反射系數(shù)并通過光線反射角大小仿真出該網(wǎng)格節(jié)點的圖像亮度; 步驟3.2.5:對于不同的網(wǎng)格節(jié)點投影到成像平面上同一個像素點的情況,選擇離相機位置最近的那個節(jié)點作為成像點,其他網(wǎng)格節(jié)點數(shù)據(jù)由于被遮擋不再進行仿真計算。
【文檔編號】G05B17/02GK104199314SQ201410468357
【公開日】2014年12月10日 申請日期:2014年9月15日 優(yōu)先權(quán)日:2014年9月15日
【發(fā)明者】莊家煜, 許世衛(wèi), 李哲敏, 王東杰, 張超, 陳威, 李干瓊, 張玉梅, 張永恩 申請人:中國農(nóng)業(yè)科學(xué)院農(nóng)業(yè)信息研究所