本發(fā)明涉及智能制造技術領域,具體涉及一種定位機器人智能互動的方法。
背景技術:
隨著機器人技術的不斷發(fā)展,越來越多的機器人開始替代人類執(zhí)行各種任務。機器人是自動控制機器(Robot)的俗稱,自動控制機器包括一切模擬人類行為或思想與模擬其他生物的機械(如機器狗,機器貓等)。狹義上對機器人的定義還有很多分類法及爭議,有些電腦程序甚至也被稱為機器人。在當代工業(yè)中,機器人指能自動執(zhí)行任務的人造機器裝置,用以取代或協(xié)助人類工作。理想中的高仿真機器人是高級整合控制論、機械電子、計算機與人工智能、材料學和仿生學的產物,目前科學界正在向此方向研究開發(fā),但是機器人遠程控制還不完善,大數(shù)據(jù)的應用還沒有普及,機器人的數(shù)據(jù)采集還處于離線狀態(tài),機器人深度學習也來自于本機數(shù)據(jù)的儲存。
隨著科學技術的不斷進步和機器人技術的不斷發(fā)展,智能機器人已逐漸走入千家萬戶,市場上也出現(xiàn)了不少智能機器人給人們的生活帶來便利和樂趣,其中,交互機器人作為智能機器人的一種,能夠和人們互動,給人們的生活,尤其是給老人或孩子的生活增添了許多樂趣。市面上現(xiàn)有的交互機器人以自然語言處理和語義理解為核心,整合語音識別等技術,實現(xiàn)和各種設備的擬人化交互。但這些現(xiàn)有交互機器人還存在不足之處,如何實現(xiàn)機器人與實際指令相匹配的精準定位控制實現(xiàn)智能交互。
技術實現(xiàn)要素:
本發(fā)明提供了一種定位機器人智能互動的方法,通過精準定位機器人與控制指令中的機器人位置關系來實現(xiàn)機器人智能互動,避免了機器人不受精準定位控制,造成資源浪費或者控制不受約束。
本發(fā)明提供了一種定位機器人智能互動的方法,所述方法包括:
機器人上的通信模塊接收控制指令,所述控制指令包括機器人的位置信息;
機器人解析所述控制指令中的機器人的位置信息;
觸發(fā)機器人上的GNSS模塊定位解析所述機器人所在的位置信息;
判斷所述GNSS模塊定位解析的位置信息與控制指令中的機器人的位置信息是否相匹配;
在判斷所述GNSS模塊定位解析的位置信息與控制指令中的機器人的位置信息相匹配后,啟動機器人上的紅外感應器判斷目標范圍內是否有人存在;
在判斷有人存在時,基于共面P4P的單目視覺定位原理對人體目標對象進行定位;
在完成人體目標對象的定位之后,基于人臉識別技術獲取臉部特征數(shù)據(jù);
基于臉部特征數(shù)據(jù)判斷所述人體目標對象是否為可互動對象;
在判斷所述人體目標對象為可互動對象時,基于臉部特征數(shù)據(jù)識別人體目標對象的年齡范圍;
基于人體目標對象的年齡范圍構建場景模式數(shù)據(jù);
基于語音交互模塊輸出場景模式數(shù)據(jù)所對應的語音內容。
所述共面P4P的單目視覺定位原理對人體目標對象進行定位包括:
基于平行四邊形成像消隱點進行人體目標對象定位;
通過牛頓迭代法進行優(yōu)化獲得人體目標對象在攝像機坐標系下的精確位姿。
所述基于人臉識別技術獲取臉部特征數(shù)據(jù)包括:
人臉圖像采集及檢測、人臉圖像預處理、人臉圖像特征提取。
所述基于臉部特征數(shù)據(jù)判斷所述人體目標對象是否為可互動對象包括:
基于臉部特征數(shù)據(jù)判斷是否有關聯(lián)于所述臉部特征數(shù)據(jù)的互動場景數(shù)據(jù)庫,如果存在互動場景數(shù)據(jù)庫,則判斷所述人體目標對象為可互動對象。
所述基于臉部特征數(shù)據(jù)識別人體目標對象的年齡范圍包括:
基于深度學習的方法識別人體目標對象的年齡和性別。
所述基于人體目標對象的年齡范圍構建場景模式數(shù)據(jù)包括:
基于年齡范圍調用與年齡范圍相關聯(lián)的場景模式模型;
從場景模式模型中提取一個場景模式數(shù)據(jù)。
所述觸發(fā)機器人上的GNSS模塊定位解析所述機器人所在的位置信息包括:
在解析出控制指令中的機器人位置信息之后,基于GNSS模塊獲取GNSS信號;
基于GNSS信號解析所述機器人所在的位置信息。
所述GNSS信號包括:北斗衛(wèi)星信號、GPS信號。
在本發(fā)明中,對智能交互機器人實現(xiàn)位置精準定位授權之后,再啟動智能交互機器人的交互功能,通過紅外感應器感應目標區(qū)域內是否有人進入,從而啟動整個人體目標對象的臉部識別過程,在進行臉部識別過程中,也實現(xiàn)了年齡匹配,從而在互動中實現(xiàn)相匹配的場景模式互動,從而增加了智能機器人的趣味性和智能化。保證了整個智能交互機器人精準位置定位授權,較好的滿足遠程控制,對整個機器人遠程控制的私密控制性得到了較好的保障。
附圖說明
為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術中的技術方案,下面將對實施例或現(xiàn)有技術描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的一些實施例,對于本領域普通技術人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其它的附圖。
圖1是本發(fā)明實施例中的定位機器人智能互動的方法流程圖。
具體實施方式
下面將結合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分實施例,而不是全部的實施例?;诒景l(fā)明中的實施例,本領域普通技術人員在沒有作出創(chuàng)造性勞動前提下所獲得的所有其它實施例,都屬于本發(fā)明保護的范圍。
具體的,圖1示出了本發(fā)明實施例中的定位機器人智能互動的方法流程圖,該方法包括如下步驟:
S101、機器人上的通信模塊接收控制指令,所述控制指令包括機器人的位置信息;
S102、機器人解析所述控制指令中的機器人的位置信息;
S103、觸發(fā)機器人上的GNSS模塊定位解析所述機器人所在的位置信息;
需要說明的是,本發(fā)明實施例過程中控制指令中一般都設置有機器人位置信息,其作為GNSS模塊獲取定位信息的一個觸發(fā)條件,在解析出在解析出控制指令中的機器人位置信息之后,基于GNSS模塊獲取GNSS信號;基于GNSS信號解析所述工業(yè)機器人所在的位置信息。GNSS信號包括:北斗衛(wèi)星信號、GPS信號。
GNSS的全稱是全球導航衛(wèi)星系統(tǒng)(Global Navigation Satellite System),它是泛指所有的衛(wèi)星導航系統(tǒng),包括全球的、區(qū)域的和增強的,如美國的GPS、俄羅斯的Glonass、歐洲的Galileo、中國的北斗衛(wèi)星導航系統(tǒng),以及相關的增強系統(tǒng),如美國的WAAS(廣域增強系統(tǒng))、歐洲的EGNOS(歐洲靜地導航重疊系統(tǒng))和日本的MSAS(多功能運輸衛(wèi)星增強系統(tǒng))等,還涵蓋在建和以后要建設的其他衛(wèi)星導航系統(tǒng)。國際GNSS系統(tǒng)是個多系統(tǒng)、多層面、多模式的復雜組合系統(tǒng)。
S104、判斷所述GNSS模塊定位解析的位置信息與控制指令中的機器人的位置信息是否相匹配;S105、在判斷所述GNSS模塊定位解析的位置信息與控制指令中的機器人的位置信息相匹配后,啟動機器人上的紅外感應器判斷目標范圍內是否有人存在,如果有人進入則進入S106,否則繼續(xù)該步驟;
S106、在判斷有人存在時,基于共面P4P的單目視覺定位原理對人體目標對象進行定位;
具體實施過程中,基于平行四邊形成像消隱點進行人體目標對象定位;通過牛頓迭代法進行優(yōu)化獲得人體目標對象在攝像機坐標系下的精確位姿。
機器人在運動學標定過程中,通過視覺測量手段完成誤差測量的關鍵在于視覺定位方法,基于4個空間點共面且所在平面與攝像機光軸不平行時,則對應的共面P4P問題有唯一解,因此通過4個共面點實現(xiàn)人體目標對象定位具有很強的實用價值,當4個空間共面點組成平行四邊形時,該P4P問題的解可以通過平行四邊形的兩個消隱點很方便的求解??紤]到測量噪聲以及四個特征點位置誤差的影響,以消隱點計算出的結果作為初始值通過牛頓迭代法進行優(yōu)化可以得到人體目標對象在攝像機坐標系下的精確位姿態(tài),本發(fā)明實施例中的這種定位方法首選需要對攝像機參數(shù)進行標定。
S107、在完成人體目標對象的定位之后,基于人臉識別技術獲取臉部特征數(shù)據(jù);
該步驟實施過程中,包括:人臉圖像采集及檢測、人臉圖像預處理、人臉圖像特征提取。
人臉圖像采集:不同的人臉圖像都能通過攝像鏡頭采集下來,比如靜態(tài)圖像、動態(tài)圖像、不同的位置、不同表情等方面都可以得到很好的采集。當用戶在采集設備的拍攝范圍內時,采集設備會自動搜索并拍攝用戶的人臉圖像。
人臉檢測:人臉檢測在實際中主要用于人臉識別的預處理,即在圖像中準確標定出人臉的位置和大小。人臉圖像中包含的模式特征十分豐富,如直方圖特征、顏色特征、模板特征、結構特征及Haar特征等。人臉檢測就是把這其中有用的信息挑出來,并利用這些特征實現(xiàn)人臉檢測。
主流的人臉檢測方法基于以上特征采用Adaboost學習算法,Adaboost算法是一種用來分類的方法,它把一些比較弱的分類方法合在一起,組合出新的很強的分類方法。
人臉檢測過程中使用Adaboost算法挑選出一些最能代表人臉的矩形特征(弱分類器),按照加權投票的方式將弱分類器構造為一個強分類器,再將訓練得到的若干強分類器串聯(lián)組成一個級聯(lián)結構的層疊分類器,有效地提高分類器的檢測速度。
人臉圖像預處理:對于人臉的圖像預處理是基于人臉檢測結果,對圖像進行處理并最終服務于特征提取的過程。系統(tǒng)獲取的原始圖像由于受到各種條件的限制和隨機干擾,往往不能直接使用,必須在圖像處理的早期階段對它進行灰度校正、噪聲過濾等圖像預處理。對于人臉圖像而言,其預處理過程主要包括人臉圖像的光線補償、灰度變換、直方圖均衡化、歸一化、幾何校正、濾波以及銳化等。
人臉圖像特征提取:人臉識別系統(tǒng)可使用的特征通常分為視覺特征、像素統(tǒng)計特征、人臉圖像變換系數(shù)特征、人臉圖像代數(shù)特征等。人臉特征提取就是針對人臉的某些特征進行的。人臉特征提取,也稱人臉表征,它是對人臉進行特征建模的過程。人臉特征提取的方法歸納起來分為兩大類:一種是基于知識的表征方法;另外一種是基于代數(shù)特征或統(tǒng)計學習的表征方法。
基于知識的表征方法主要是根據(jù)人臉器官的形狀描述以及他們之間的距離特性來獲得有助于人臉分類的特征數(shù)據(jù),其特征分量通常包括特征點間的歐氏距離、曲率和角度等。人臉由眼睛、鼻子、嘴、下巴等局部構成,對這些局部和它們之間結構關系的幾何描述,可作為識別人臉的重要特征,這些特征被稱為幾何特征?;谥R的人臉表征主要包括基于幾何特征的方法和模板匹配法。
S108、基于臉部特征數(shù)據(jù)判斷所述人體目標對象是否為可互動對象,如果是可互動對象,則進入S109,否則進入S105步驟;
具體實施過程中,基于臉部特征數(shù)據(jù)判斷是否有關聯(lián)于所述臉部特征數(shù)據(jù)的互動場景數(shù)據(jù)庫,如果存在互動場景數(shù)據(jù)庫,則判斷所述人體目標對象為可互動對象。對于定制性的智能機器人,可以采取臉部特征數(shù)據(jù)與互動場景數(shù)據(jù)庫間的匹配關系,只有這兩者關聯(lián)起時,才進入互動場景。
S109、在判斷所述人體目標對象為可互動對象時,基于臉部特征數(shù)據(jù)識別人體目標對象的年齡范圍;
具體實施過程中,可以基于深度學習的方法識別人體目標對象的年齡和性別。預處理訓練樣本集和測試樣本集中的所有圖像,通過高斯混合模型提取出人體目標對象。其次,對訓練樣本集中各種目標行為建立樣本庫,定義不同類別的識別行為作為先驗知識,用于訓練深度學習網(wǎng)絡。最后,結合深度學習所得到的網(wǎng)絡模型,分類識別測試樣本集中的各種行為,并將識別的結果和當前流行方法進行了比較。
S110、基于人體目標對象的年齡范圍構建場景模式數(shù)據(jù);
具體實施過程中,基于年齡范圍調用與年齡范圍相關聯(lián)的場景模式模型;從場景模式模型中提取一個場景模式數(shù)據(jù)。
根據(jù)不同的年齡范圍建立不同的場景模式模型,其可以針對不同年齡段設置互動環(huán)節(jié)或者場景內容等等。
S111、基于語音交互模塊輸出場景模式數(shù)據(jù)所對應的語音內容;
具體實施過程中,其可以通過語音播放、顯示屏顯示燈方式輸出整個內容,其保障了整個互動的趣味性和良好的體驗性。
S112、結束。
需要說明的是,機器人在接收控制指令時,在完成整個匹配過程之后,即可實現(xiàn)對機器人控制的授權,即可完成相應的智能互動過程;在識別出整個匹配過程不成功之后,即對機器人授權的失敗,不能完成相應的互動過程。
在整個智能互動過程中,對控制指令中寫入機器人的位置信息,并基于機器人上的GNSS模塊獲取定位信息,從而解析該機器人的位置信息,機器人通過這兩個信息間的匹配過程,可以精準實現(xiàn)機器人的后續(xù)操作,避免誤操作發(fā)生。
相應的,該智能機器人包括:
通信模塊,用于接收控制指令,所述控制指令包括機器人的位置信息;
解析模塊,用于解析所述控制指令中的機器人的位置信息;
GNSS模塊,用于在解析模塊解析完機器人的位置信息后,定位解析所述機器人所在的位置信息;
匹配模塊,用于判斷所述GNSS模塊定位解析的位置信息與控制指令中的機器人的位置信息是否相匹配;
紅外感應模塊,用于在判斷所述GNSS模塊定位解析的位置信息與控制指令中的機器人的位置信息相匹配后,啟動機器人上的紅外感應器判斷目標范圍內是否有人存在;
P4P定位模塊,用于在判斷有人存在時,基于共面P4P的單目視覺定位原理對人體目標對象進行定位;
人臉識別模塊,用于在完成人體目標對象的定位之后,基于人臉識別技術獲取臉部特征數(shù)據(jù);
判斷模塊,用于基于臉部特征數(shù)據(jù)判斷所述人體目標對象是否為可互動對象;
年齡檢測模塊,用于在判斷所述人體目標對象為可互動對象時,基于臉部特征數(shù)據(jù)識別人體目標對象的年齡范圍;
場景模塊,用于基于人體目標對象的年齡范圍構建場景模式數(shù)據(jù);
互動模塊,用于基于語音交互模塊輸出場景模式數(shù)據(jù)所對應的語音內容。
具體實施過程中,該P4P定位模塊包括:
第一定位單元,用于基于平行四邊形成像消隱點進行人體目標對象定位;
第二定位單元,用于通過牛頓迭代法進行優(yōu)化獲得人體目標對象在攝像機坐標系下的精確位姿。
需要說明的是,機器人在運動學標定過程中,通過視覺測量手段完成誤差測量的關鍵在于視覺定位方法,基于4個空間點共面且所在平面與攝像機光軸不平行時,則對應的共面P4P問題有唯一解,因此通過4個共面點實現(xiàn)人體目標對象定位具有很強的實用價值,當4個空間共面點組成平行四邊形時,該P4P問題的解可以通過平行四邊形的兩個消隱點很方便的求解??紤]到測量噪聲以及四個特征點位置誤差的影響,以消隱點計算出的結果作為初始值通過牛頓迭代法進行優(yōu)化可以得到人體目標對象在攝像機坐標系下的精確位姿態(tài),本發(fā)明實施例中的這種定位方法首選需要對攝像機參數(shù)進行標定。
具體實施過程中,該人臉識別模塊還用于人臉圖像采集及檢測、人臉圖像預處理、人臉圖像特征提取。
人臉圖像采集:不同的人臉圖像都能通過攝像鏡頭采集下來,比如靜態(tài)圖像、動態(tài)圖像、不同的位置、不同表情等方面都可以得到很好的采集。當用戶在采集設備的拍攝范圍內時,采集設備會自動搜索并拍攝用戶的人臉圖像。
人臉檢測:人臉檢測在實際中主要用于人臉識別的預處理,即在圖像中準確標定出人臉的位置和大小。人臉圖像中包含的模式特征十分豐富,如直方圖特征、顏色特征、模板特征、結構特征及Haar特征等。人臉檢測就是把這其中有用的信息挑出來,并利用這些特征實現(xiàn)人臉檢測。
主流的人臉檢測方法基于以上特征采用Adaboost學習算法,Adaboost算法是一種用來分類的方法,它把一些比較弱的分類方法合在一起,組合出新的很強的分類方法。
人臉檢測過程中使用Adaboost算法挑選出一些最能代表人臉的矩形特征(弱分類器),按照加權投票的方式將弱分類器構造為一個強分類器,再將訓練得到的若干強分類器串聯(lián)組成一個級聯(lián)結構的層疊分類器,有效地提高分類器的檢測速度。
人臉圖像預處理:對于人臉的圖像預處理是基于人臉檢測結果,對圖像進行處理并最終服務于特征提取的過程。系統(tǒng)獲取的原始圖像由于受到各種條件的限制和隨機干擾,往往不能直接使用,必須在圖像處理的早期階段對它進行灰度校正、噪聲過濾等圖像預處理。對于人臉圖像而言,其預處理過程主要包括人臉圖像的光線補償、灰度變換、直方圖均衡化、歸一化、幾何校正、濾波以及銳化等。
人臉圖像特征提?。喝四樧R別系統(tǒng)可使用的特征通常分為視覺特征、像素統(tǒng)計特征、人臉圖像變換系數(shù)特征、人臉圖像代數(shù)特征等。人臉特征提取就是針對人臉的某些特征進行的。人臉特征提取,也稱人臉表征,它是對人臉進行特征建模的過程。人臉特征提取的方法歸納起來分為兩大類:一種是基于知識的表征方法;另外一種是基于代數(shù)特征或統(tǒng)計學習的表征方法。
基于知識的表征方法主要是根據(jù)人臉器官的形狀描述以及他們之間的距離特性來獲得有助于人臉分類的特征數(shù)據(jù),其特征分量通常包括特征點間的歐氏距離、曲率和角度等。人臉由眼睛、鼻子、嘴、下巴等局部構成,對這些局部和它們之間結構關系的幾何描述,可作為識別人臉的重要特征,這些特征被稱為幾何特征。基于知識的人臉表征主要包括基于幾何特征的方法和模板匹配法。
具體實施過程中,該判斷模塊用于基于臉部特征數(shù)據(jù)判斷是否有關聯(lián)于所述臉部特征數(shù)據(jù)的互動場景數(shù)據(jù)庫,如果存在互動場景數(shù)據(jù)庫,則判斷所述人體目標對象為可互動對象。基于臉部特征數(shù)據(jù)判斷是否有關聯(lián)于所述臉部特征數(shù)據(jù)的互動場景數(shù)據(jù)庫,如果存在互動場景數(shù)據(jù)庫,則判斷所述人體目標對象為可互動對象。對于定制性的智能機器人,可以采取臉部特征數(shù)據(jù)與互動場景數(shù)據(jù)庫間的匹配關系,只有這兩者關聯(lián)起時,才進入互動場景。
具體實施過程中,該年齡檢測模塊用于基于深度學習的方法識別人體目標對象的年齡和性別。這里可以基于深度學習的方法識別人體目標對象的年齡和性別。預處理訓練樣本集和測試樣本集中的所有圖像,通過高斯混合模型提取出人體目標對象。其次,對訓練樣本集中各種目標行為建立樣本庫,定義不同類別的識別行為作為先驗知識,用于訓練深度學習網(wǎng)絡。最后,結合深度學習所得到的網(wǎng)絡模型,分類識別測試樣本集中的各種行為,并將識別的結果和當前流行方法進行了比較。
具體實施過程中,該場景模塊用于基于年齡范圍調用與年齡范圍相關聯(lián)的場景模式模型;從場景模式模型中提取一個場景模式數(shù)據(jù)。該場景模塊基于年齡范圍調用與年齡范圍相關聯(lián)的場景模式模型;從場景模式模型中提取一個場景模式數(shù)據(jù)。根據(jù)不同的年齡范圍建立不同的場景模式模型,其可以針對不同年齡段設置互動環(huán)節(jié)或者場景內容等等
具體實施過程中,該GNSS模塊用于在解析出控制指令中的機器人位置信息之后,獲取GNSS信號;解析所述機器人所在的位置信息。需要說明的是,本發(fā)明實施例過程中控制指令中一般都設置有機器人位置信息,其作為GNSS模塊獲取定位信息的一個觸發(fā)條件,在解析出在解析出控制指令中的機器人位置信息之后,基于GNSS模塊獲取GNSS信號;基于GNSS信號解析所述工業(yè)機器人所在的位置信息。GNSS信號包括:北斗衛(wèi)星信號、GPS信號。GNSS的全稱是全球導航衛(wèi)星系統(tǒng)(Global Navigation Satellite System),它是泛指所有的衛(wèi)星導航系統(tǒng),包括全球的、區(qū)域的和增強的,如美國的GPS、俄羅斯的Glonass、歐洲的Galileo、中國的北斗衛(wèi)星導航系統(tǒng),以及相關的增強系統(tǒng),如美國的WAAS(廣域增強系統(tǒng))、歐洲的EGNOS(歐洲靜地導航重疊系統(tǒng))和日本的MSAS(多功能運輸衛(wèi)星增強系統(tǒng))等,還涵蓋在建和以后要建設的其他衛(wèi)星導航系統(tǒng)。國際GNSS系統(tǒng)是個多系統(tǒng)、多層面、多模式的復雜組合系統(tǒng)。綜上,對智能交互機器人實現(xiàn)位置精準定位授權之后,再啟動智能交互機器人的交互功能,通過紅外感應器感應目標區(qū)域內是否有人進入,從而啟動整個人體目標對象的臉部識別過程,在進行臉部識別過程中,也實現(xiàn)了年齡匹配,從而在互動中實現(xiàn)相匹配的場景模式互動,從而增加了智能機器人的趣味性和智能化。保證了整個智能交互機器人精準位置定位授權,較好的滿足遠程控制,對整個機器人遠程控制的私密控制性得到了較好的保障。
本領域普通技術人員可以理解上述實施例的各種方法中的全部或部分步驟是可以通過程序來指令相關的硬件來完成,該程序可以存儲于計算機可讀存儲介質中,存儲介質可以包括:只讀存儲器(ROM,Read Only Memory)、隨機存取存儲器(RAM,Random Access Memory)、磁盤或光盤等。
以上對本發(fā)明實施例所提供的定位機器人智能互動的方法進行了詳細介紹,本文中應用了具體個例對本發(fā)明的原理及實施方式進行了闡述,以上實施例的說明只是用于幫助理解本發(fā)明的方法及其核心思想;同時,對于本領域的一般技術人員,依據(jù)本發(fā)明的思想,在具體實施方式及應用范圍上均會有改變之處,綜上所述,本說明書內容不應理解為對本發(fā)明的限制。