專利名稱:在線式視覺跟蹤方法
在線式視覺跟蹤方法
技術(shù)領域:
本發(fā)明涉及視覺跟蹤技術(shù),具體涉及具有自適應性和重捕獲目標的在線式視覺跟蹤方法。
背景技術(shù):
視覺跟蹤是計算機視覺領域非常重要的一項研究,視覺跟蹤在監(jiān)控、人機交互、車載導航、視訊索引等方面都有重要的應用。監(jiān)控方面如刑偵監(jiān)控,可應用到對監(jiān)控錄像中可疑人員的跟蹤,從而協(xié)助辦案人員追蹤可疑人員的蹤跡;交通監(jiān)控方面,視覺跟蹤實時跟蹤車輛的行駛方向,做出統(tǒng)計數(shù)據(jù)并給出實時的交通信息,合理管理交通狀況;人機交互方面,可以利用對人手的姿勢的跟蹤識別以及人眼的跟蹤來實現(xiàn)人與機器的信息交互;車載導航方面,視覺跟蹤主要應用在利用車載攝像頭實時跟蹤道路上的車輛的行駛狀況,對駕駛員的行駛做出輔助性的指示和幫助;同時,視覺跟蹤在視訊索引方面也有一定的應用,如對視頻中出現(xiàn)的目標進行自動標注等。但是,視覺跟蹤仍有需要解決的問題,主要有以下幾個方面,首先是對特定目標的先驗知識的要求限制了跟蹤的應用范圍,傳統(tǒng)視覺跟蹤要求目標為某一特定類別,如行人、車輛等,而現(xiàn)在應用的需求是不僅僅限于上述某一特定類別,如在人際交互中,機器人對感興趣的目標的跟蹤,由于在機器人的視野中可能出現(xiàn)各種目標是無法預知目標的先驗知識,因此需要在線式學習的視覺跟蹤。其次,是由于光照、視角變化、形變、旋轉(zhuǎn)等引起的目標外觀的變化而造成跟蹤的漂移或是丟失。再次,是因遮擋造成的目標暫時性的消失而造成的跟蹤的失敗。基于機器學習的跟蹤算法可以分為兩類:一類為生成模型類的跟蹤器(generative tracker),簡稱生成跟蹤器;另一類為判別模型類的跟蹤器(discriminativetracker),簡稱判別跟蹤器。生成跟蹤器是從統(tǒng)計的角度表示數(shù)據(jù)的分布情況,能夠反映同類數(shù)據(jù)本身的相似度,即通過輸入跟`蹤目標的外觀樣本,訓練出一個能表示目標外觀模型,然后通過檢查圖像中和該模型相似度最高點區(qū)域以確定目標的位置,從而實現(xiàn)跟蹤。生成模型類的跟蹤器只關注目標外觀,不關心決策邊界在哪,因此容易產(chǎn)生錯誤判斷,而且學習和計算過程較為復雜。判別跟蹤器則既考慮目標的外觀(前景),又考慮背景,并將前景和后景相結(jié)合,訓練分類器。判別模型類的跟蹤器通過尋找不同類別之間的最優(yōu)分類面,反映的是異類數(shù)據(jù)之間的差異,即通過學習過程,找到一個決策邊界把目標和背景分離開來,其優(yōu)點在于分類邊界更靈活,相比于使用純概率方法或生成模型類的跟蹤器更有區(qū)分性,能清晰的分辨出多類或某一類與其他類之間的差異特征;在目標外觀發(fā)生視角變化、部分遮擋、尺度改變時效果較好;且判別模型的性能比生成模型要簡單,較容易學習。判別模型類的跟蹤器也存在一定缺點:一是不能反映訓練數(shù)據(jù)本身的特性,即只能判斷是哪一類,不能把目標的外觀描述出來;二是缺少生成模型類的跟蹤器的優(yōu)點,即先驗結(jié)構(gòu)的不確定性。目前,生成跟蹤器的算法已有人提出,其為特征值跟蹤方法。該方法基于特征空間表示的方法,認為目標的外觀由基本的特征向量構(gòu)成正交基,通過線性組合的方法來近似還原出目標的外觀,因此,該方法需要用大量的訓練樣本訓練出上述的正交基,構(gòu)成一個目標的外觀特征空間,然后判斷幀圖像中和此空間組成的目標外觀相似的區(qū)域的位置,從而實現(xiàn)跟蹤。該方法的優(yōu)點在于不需要把目標所有可能出現(xiàn)的外觀狀態(tài)都表示出來,只需要把能產(chǎn)生目標外觀的各個外觀的特征向量基找出即可,故對適應目標外觀的變換有一定的優(yōu)勢。但該方法由于屬于生成跟蹤器的算法,在訓練過程中未考慮背景的因素,導致在背景較復雜的場景中跟蹤效果并不理想。需說明的是,特征值跟蹤不是在線更新學習過程。類似算法的例子還有一種增量學習的在線式視覺(IVT)跟蹤算法,該方法基于特征值跟蹤把視覺跟蹤轉(zhuǎn)化成基于蒙塔卡羅方法的狀態(tài)推理過程,在線更新特征空間應用粒子濾波從而使其具有一定的魯棒性;與現(xiàn)有的增量子空間方法相比,該方法提出了新的奇異值分解方法,能更好的更新特征空間的均值和特征向量。類似的還有多子空間的模型,即離線建立一定數(shù)量的子空間,然后利用新的樣本進行在線更新以及非線性流形的學習方法,即采用多個特征空間來表示目標的外觀。從上述羅列的算法中,可以看出,生成跟蹤器就是充分利用目標的外觀特征,選擇適當?shù)哪P腿ツM目標的外觀變化,以圖片中樣本和外觀模型的相似程度來判斷目標的具體位置。而生成跟蹤器這種方法的缺點也是很明顯的,即沒有充分利用背景的信息,使區(qū)分性差,易受到復雜環(huán)境的干擾。判別跟蹤器的算法例子也有很多,如在線多示例學習(MIL)的跟蹤算法,該方法把跟蹤過程分為三個部分:目標特征表示、特征模型、運動模型,采用haar-like (類哈爾)特征表示,以多示例學習方法訓練分類器組成特征模型,而運動模型則采用簡單的幀間關系,即以上一幀中目標的位置為原點,搜尋某一半徑里的下一幀目標的位置。另外,綜合跟蹤(ET)算法也屬于判別模型類的跟蹤算法,其主要思想是把圖像分為前景像素和背景像素,然后把跟蹤看成一個兩種像素分類的問題,在線訓練一系列的弱分類器,利用AdaBoost (自適應增強算法)生成一個強分類器,從而區(qū)分出前景目標的位置。其他類似的算法還有在線選擇有區(qū)別性的特征的跟蹤算法、支持向量機跟蹤算法等。在線選擇區(qū)別性特征算法能較好的區(qū)分背景和前景的特征,現(xiàn)有的很多算法自始至終都是基于一個既定的特征進行跟蹤,沒有實時在線的挑選跟蹤的特征,在線選擇區(qū)別性特征算法的基本步驟是,首先給出一些列的特征,利用算法實時在線計算出最能表現(xiàn)目標外觀的特征,之后繼續(xù)跟蹤;再利用兩類方差比計算出區(qū)分性最好的特征作為候選;最后利用mean-shift方法對更新的特征進行跟蹤。支持向量機跟蹤算法結(jié)合支持向量機的機器學習方法,采用基于光流法的跟蹤算法,由于目標檢測實質(zhì)為分類問題,因此利用支持向量機來進行背景前景的分類,且目標在幀與幀間的較大移動,該算法還采用了金字塔分層模式,通過由粗到細的方法實現(xiàn)分類。一般而言,判別跟蹤器算法比生成跟蹤器算法效果好,但當訓練樣本少時,則恰恰相反,因此有人提出了結(jié)合上述兩個分類的方法,利用協(xié)同訓練的方法,用上述兩類分類器識別的標記樣本來相互訓練對方的分類器以達到較好的效果。協(xié)同訓練基于兩類分類器的訓練特征相互獨立,即特征被分為兩類且分別被兩種分類器訓練,之后利用各個分類器得出的標記樣本來在線訓練對方的分類。但是上述算法的實時性很差,跟蹤的速率大約是2幀/秒。其他的類似結(jié)合兩類模型的跟蹤算法大都是利用判別跟蹤算法的可區(qū)分性訓練來得出一個更有效的生成跟蹤器,通過擬合一個函數(shù)來結(jié)合兩種算法的判別函數(shù),最后求出使得該函數(shù)最大的狀態(tài),即可得目標的位置,但是,由于這上述結(jié)合函數(shù)的不對稱性,得出的判別函數(shù)需要較多的參數(shù)來平衡,容易產(chǎn)生不恰當?shù)慕Y(jié)合,反而會導致比上述兩種分類器更差的效果。兩類分類器的整合需要合適的參數(shù)來平衡兩類分類器的判別函數(shù),而合適的參數(shù)容易受到視頻內(nèi)容變化的影響;而通過協(xié)同訓練的方法相互訓練分類器,避免了參數(shù)的調(diào)節(jié)這一棘手的問題,但算法的實時性很難得到保證,而且兩類分類器同時訓練運算量將非常大,因此,如何有效的減小運算量是成為需要解決的問題。
發(fā)明內(nèi)容本發(fā)明要解決的技術(shù)問題在于解決現(xiàn)有技術(shù)存在跟蹤目標前需大量訓練,訓練運算量大的問題。為此,本發(fā)明一方面提供一種在線式視覺跟蹤方法,包括以下步驟進行:(I)、初始化分類器:獲取第一幀圖像,標示待跟蹤目標區(qū)域;計算所述目標區(qū)域中圖像塊的類哈爾特征,初始化第一分類器;計算所述目標區(qū)域中圖像塊的二進制編碼特征,初始化第二分類器;(2)、自適應跟蹤:基于結(jié)構(gòu)化輸出的支持向量機,并結(jié)合粒子濾波器的跟蹤,建立運動模型;(3)、重新捕獲目標:利用第一分類器更新訓練樣本,之后利用第二分類器建立全局網(wǎng)格,進行全局的搜索。進一步地,所述計算所述目標區(qū)域中圖像塊的類哈爾特征,初始化第一分類器的步驟包括,計算哈爾特征值;計算所述圖像塊的全部哈爾特征向量,利用所述哈爾特征向量初始化第一分類器。進一步地,所 述計算所述目標區(qū)域中圖像塊的二進制編碼特征,初始化第二分類器的步驟包括,仿射變換所述圖像塊;計算所述仿射變換后的圖像塊的二進制編碼特征;以目標區(qū)域為基準,創(chuàng)建全局范圍內(nèi)的方框群,用于第二分類器的全局搜索。進一步地,步驟⑵具體包括,構(gòu)建粒子濾波器的狀態(tài)空間:以向量(x,y,s,w,h,C)表示狀態(tài)空間,其中,(x,y)代表目標區(qū)域的點的坐標,w、h分別代表目標區(qū)域的寬度和高度,s代表尺度變化,C代表第一分類器;初始化狀態(tài)空間:初始化X,y, w,h以及分類器,其中,X, y, w,h由第一幀圖像標記區(qū)域的位置決定;分類器由第一幀圖像標記區(qū)域內(nèi)圖像塊的哈爾特征值訓練獲得;采用一階自回歸運動模型;建立觀察模型:基于結(jié)構(gòu)輸出的支持向量機為第一分類器,以判定目標區(qū)域的位置,包括測試和訓練。進一步地,所述測試具體為,當獲取新的特征向量時,計算所述特征向量與支持向量的加權(quán)和,得到判斷值,對于判定值最大的特征向量,作為目標區(qū)域的正樣本,用于第一分類器訓練。進一步地,所述訓練包括,(I)、作為目標區(qū)域的正樣本的特征向量,將所述特征向量歸入支持向量隊列中作為正支持向量,以所述正樣本的方框為中心構(gòu)建方框群;(2)、計算方框群中各方框的梯度,選出梯度最小對應的方框,計算梯度最小對應的方框的特征向量,并歸入支持向量隊列作為相應的負支持向量;⑶、對支持向量隊列最小優(yōu)化;⑷、計算舊的支持向量隊列相應的梯度,得到最大和最小的梯度,最大和最小的梯度分別作為正、負支持向量,并進行步驟⑶。進一步地,所述對支持向量隊列最小優(yōu)化包括,(I)、計算正支持向量與負支持向量的相關度;(2)、更新正支持向量、負支持向量的權(quán)重系數(shù);(3)、更新正支持向量、負支持向量對應的梯度值。進一步地,所述重新捕獲目標包括,(I)、初始化分類器,計算全局區(qū)域各個方框與標記方框的重疊率;(2)、訓練過程中,正樣本獲取自第一分類器,負樣本獲取自第一分類器低于閾值方框;(3)、根據(jù)二進制碼的數(shù)值,統(tǒng)計隨機厥各個分支下正、負樣本的比例;(4)、第二分類器檢測與第一分類器跟蹤同步,當?shù)诙诸惼鳈z測到目標位置與第一分類器跟蹤的位置不同,則對目標 位置重新初始化;(5)、根據(jù)所述特征向量與支持向量的加權(quán)和,得到判斷值,進行整合目標的方框位置。進一步地,所述訓練過程包括,訓練和測試,訓練,仿射變換正樣本圖像塊,檢測閾值范圍判定負樣本圖像塊,并計算正樣本、負樣本的二進制特征值,統(tǒng)計二進制特征值對應的正樣本、負樣本的數(shù)量,并計算正樣本的比例;測試,輸入新的圖像塊,計算二進制特征值,匹配二進制特征值對應的正樣本的比例,測試判斷是否為正樣本。進一步地,所述閾值范圍為第二分類器得出的判定值大于0.5,重疊率小于0.2。本發(fā)明提供的在線式視覺跟蹤方法,采用兩個分類器,第一分類器用于自適應跟蹤,第二分類器用于重捕獲跟丟的目標,分別解決目標外觀變化和目標暫時性消失需重新捕獲的問題,無需在跟蹤目標前進行大量訓練,同時,有效地把支持向量機和粒子濾波器結(jié)合,提出了有效的運動模型搜索策略,使得目標的跟蹤具有尺度可變性,從而保證跟蹤分類器的分類效果不受錯誤樣本訓練的影響。
圖1示出本發(fā)明在線式視覺跟蹤方法的類哈爾特征值的示意圖。圖2示出本發(fā)明在線式視覺跟蹤方法的圖像塊內(nèi)類哈爾特征的分布圖。圖3示出本發(fā)明在線式視覺跟蹤方法的二進制特征的示意圖。圖4示出本發(fā)明在線式視覺跟蹤方法的正樣本、負樣本的方框群的分布圖。
具體實施方式本發(fā)明的技術(shù)方案提供一種在線式視覺跟蹤方法,包括以下步驟進行:S1、初始化分類器:步驟S11、獲取第一幀圖像,標示待跟蹤目標區(qū)域;步驟S12、計算上述目標區(qū)域中圖像塊的類哈爾特征,初始化第一分類器;步驟S13、計算上述目標區(qū)域中圖像塊的二進制編碼特征,初始化第二分類器;S2、自適應跟蹤:基于結(jié)構(gòu)化輸出的支持向量機,并結(jié)合粒子濾波器的跟蹤,建立運動模型;S3、重新捕獲目標:利用第一分類器更新訓練樣本,之后利用第二分類器建立全局網(wǎng)格,進行全局的搜索。本發(fā)明提供的在線式視覺跟蹤方法,采用兩個分類器,第一分類器用于自適應跟蹤,第二分類器用于重捕獲跟丟的目標,分別解決目標外觀變化和目標暫時性消失需重新捕獲的問題,無需在跟蹤目標前進行大量訓練,同時,有效地把支持向量機和粒子濾波器結(jié)合,提出了有效的運動模型搜索策略,使得目標的跟蹤具有尺度可變性,從而保證跟蹤分類器的分類效果不受錯誤樣本訓練的影響。上述步驟S12中計算上述目標區(qū)域中圖像塊的類哈爾特征,初始化第一分類器包括,步驟S121:計算哈爾特征值,如圖1所示,其中,a、b、C、d、e五個哈爾特征值是黑色區(qū)域像素值的和與白色區(qū)域像素值的和的加權(quán)值,f哈爾特征值是整個框的像素之和與白色區(qū)域的像素值和的加權(quán)值,上述六個哈爾特征的權(quán)值分別為(1,-1)、(1,-1)、(1,_2,I)、(1,-2,I)、(1,1,-1, -1)、(I, -4),由此得到六個哈爾特征值。步驟S122:計算上述圖像塊的全部哈爾特征向量,利用上述哈爾特征向量初始化第一分類器。如圖2所示,把上述圖像塊區(qū)域分成4X4網(wǎng)格點,以每個網(wǎng)格點為中心,計算該網(wǎng)格點的位置上兩個尺寸下對應的六個哈爾特征值,上述兩個尺寸分別是圖像塊大小的0.2和0.4倍,即得到4X4X2X6=192個特征值,構(gòu)成一個哈爾特征向量,之后利用該哈爾特征向量初始化訓練第一分類器。上述第一、第二分類器的初始化,使得第一、第二分類器對后續(xù)圖像幀中目標的位置能得到準確的判斷。上述步驟S13中計算上述目標區(qū)域中圖像塊的二進制編碼特征,初始化第二分類器的步驟包括,步驟S131、仿射變換所述圖像塊;隨機生成200幅仿射變換后的圖像塊,其中偏移變化范圍± I %,尺度偏移變化范圍±1%,角度變化范圍為±10%。
步驟S132、計算上述仿射變換后的圖像塊的二進制編碼特征;如圖3所示,在圖像塊的方框內(nèi)隨機選取130個點對,比較點對的像素值的大小,大于則編碼為1,小于編碼為O,由此構(gòu)成一個130位二進制編碼作為特征值,即圖像塊的二進制編碼特征。例如,第一像素的值為I (A),第二像素的值為I (B),如果I(A) > I (B),則編碼為I,反之為O。步驟S133、以目標區(qū)域為基準,創(chuàng)建全局范圍內(nèi)的方框群,用于第二分類器的全局搜索。具體為:尺度倍數(shù)為:1.21,其中i =-10,-9……-2, -1,0,1,2,……9,10共21個尺度,方框每次移動的距離為當前尺度下方框長寬的最小值的0.1倍。其中,步驟S2具體包括,步驟S21、構(gòu)建粒子濾波器的狀態(tài)空間:以向量(X,y, s,w,h,C)表示狀態(tài)空間,其中,(x,y)代表目標區(qū)域的點的坐標,w、h分別代表目標區(qū)域的寬度和高度,s代表尺度變化,C代表第一分類器。步驟S22、初始化狀態(tài)空間:初始化X, y, w, h以及分類器,其中,x, y, w, h由第一幀圖像標記區(qū)域的位置決定;分類器由第一幀圖像標記區(qū)域內(nèi)圖像塊的哈爾特征值訓練獲得。步驟S23、采用一階自回歸運動模型;新狀態(tài)生成的前一狀態(tài)加上高斯噪聲,具體的公式表達如下:
權(quán)利要求
1.一種在線式視覺跟蹤方法,其特征在于,包括以下步驟進行: (1)、初始化分類器: 獲取第一幀圖像,標示待跟蹤目標區(qū)域; 計算所述目標區(qū)域中圖像塊的類哈爾特征,初始化第一分類器; 計算所述目標區(qū)域中圖像塊的二進制編碼特征,初始化第二分類器; (2)、自適應跟蹤:基于結(jié)構(gòu)化輸出的支持向量機,并結(jié)合粒子濾波器的跟蹤,建立運動模型; (3)、重新捕獲目標:利用第一分類器更新訓練樣本,之后利用第二分類器建立全局網(wǎng)格,進行全局的搜索。
2.根據(jù)權(quán)利要求1所述的在線式視覺跟蹤方法,其特征在于,所述計算所述目標區(qū)域中圖像塊的類哈爾特征,初始化第一分類器的步驟包括, 計算哈爾特征值; 計算所述圖像塊的全部哈爾特征向量,利用所述哈爾特征向量初始化第一分類器。
3.根據(jù)權(quán)利要求1所述的在線式視覺跟蹤方法,其特征在于,所述計算所述目標區(qū)域中圖像塊的二進制編碼特征,初始化第二分類器的步驟包括, 仿射變換所述圖像塊; 計算所述仿射變換后的圖像塊的二進制編碼特征; 以目標區(qū)域為基準,創(chuàng)建全局范圍內(nèi)的方框群,用于第二分類器的全局搜索。
4.根據(jù)權(quán)利要求1所述的在線式視覺跟蹤方法,其特征在于,步驟(2)具體包括, 構(gòu)建粒子濾波器的狀態(tài)空間:以向量(X,y,s, w,h, C)表示狀態(tài)空間,其中,(x,y)代表目標區(qū)域的點的坐標,w、h分別代表目標區(qū)域的寬度和高度,s代表尺度變化,C代表第一分類器; 初始化狀態(tài)空間:初始化x,y,w,h以及分類器,其中,X, y, w, h由第一巾貞圖像標記區(qū)域的位置決定;分類器由第一幀圖像標記區(qū)域內(nèi)圖像塊的哈爾特征值訓練獲得; 采用一階自回歸運動模型; 建立觀察模型:基于結(jié)構(gòu)輸出的支持向量機為第一分類器,以判定目標區(qū)域的位置,包括測試和訓練。
5.根據(jù)權(quán)利要求4所述的在線式視覺跟蹤方法,其特征在于,所述測試具體為,當獲取新的特征向量時,計算所述特征向量與支持向量的加權(quán)和,得到判斷值,對于判定值最大的特征向量,作為目標區(qū)域的正樣本,用于第一分類器訓練。
6.根據(jù)權(quán)利要求5所述的在線式視覺跟蹤方法,其特征在于,所述訓練包括, (1)、作為目標區(qū)域的正樣本的特征向量,將所述特征向量歸入支持向量隊列中作為正支持向量,以所述正樣本的方框為中心構(gòu)建方框群; (2)、計算方框群中各方框的梯度,選出梯度最小對應的方框,計算梯度最小對應的方框的特征向量,并歸入支持向量隊列作為相應的負支持向量; (3)、對支持向量隊列最小優(yōu)化; (4)、計算舊的支持向量隊列相應的梯度,得到最大和最小的梯度,最大和最小的梯度分別作為正、負支持向量,并進行步驟(3)。
7.根據(jù)權(quán)利要求6所述的在線式視覺跟蹤方法,其特征在于,所述對支持向量隊列最小優(yōu)化包括, (1)、計算正支持向量與負支持向量的相關度; (2)、更新正支持向量、負支持向量的權(quán)重系數(shù); (3)、更新正支持向量、負支持向量對應的梯度值。
8.根據(jù)權(quán)利要求1所述的在線式視覺跟蹤方法,其特征在于,所述重新捕獲目標包括, (1)、初始化分類器,計算全局區(qū)域各個方框與標記方框的重疊率; (2)、訓練過程中,正樣本獲取自第一分類器,負樣本獲取自第一分類器低于閾值方框; (3)、根據(jù)二進制碼的數(shù)值,統(tǒng)計隨機厥各個分支下正、負樣本的比例; (4)、第二分類器檢測與第一分類器跟蹤同步,當?shù)诙诸惼鳈z測到目標位置與第一分類器跟蹤的位置不同,則對目標位置重新初始化; (5)、根據(jù)所述特征向量與支持向量的加權(quán)和,得到判斷值,進行整合目標的方框位置。
9.根據(jù)權(quán)利要求8所述的在線式視覺跟蹤方法,其特征在于,所述訓練過程包括,訓練和測試, 訓練,仿射變換正樣本圖像塊,檢測閾值范圍判定負樣本圖像塊,并計算正樣本、負樣本的二進制特征值,統(tǒng)計二進制特征值對應的正樣本、負樣本的數(shù)量,并計算正樣本的比例; 測試,輸入新的圖 像塊,計算二進制特征值,匹配二進制特征值對應的正樣本的比例,測試判斷是否為正樣本。
10.根據(jù)權(quán)利要求9所述的在線式視覺跟蹤方法,其特征在于,所述閾值范圍為第二分類器得出的判定值大于0.5,重疊率小于0.2。
全文摘要
本發(fā)明涉及一種在線式視覺跟蹤方法,包括以下步驟進行(1)、初始化分類器獲取第一幀圖像,標示待跟蹤目標區(qū)域;計算所述目標區(qū)域中圖像塊的類哈爾特征,初始化第一分類器;計算所述目標區(qū)域中圖像塊的二進制編碼特征,初始化第二分類器;(2)、自適應跟蹤基于結(jié)構(gòu)化輸出的支持向量機,并結(jié)合粒子濾波器的跟蹤,建立運動模型;(3)、重新捕獲目標利用第一分類器更新訓練樣本,之后利用第二分類器建立全局網(wǎng)格,進行全局的搜索。本發(fā)明提供的在線式視覺跟蹤方法,采用兩個分類器,第一分類器用于自適應跟蹤,第二分類器用于重捕獲跟丟的目標,分別解決目標外觀變化和目標暫時性消失需重新捕獲的問題,無需在跟蹤目標前進行大量訓練。
文檔編號G06K9/62GK103150572SQ20121053313
公開日2013年6月12日 申請日期2012年12月11日 優(yōu)先權(quán)日2012年12月11日
發(fā)明者楊田雨, 李抱樸, 胡超, 孟慶虎 申請人:中國科學院深圳先進技術(shù)研究院