專利名稱:一種基于OpenCV的視頻目標(biāo)跟蹤算法的制作方法
技術(shù)領(lǐng)域:
本發(fā)明涉及視頻數(shù)據(jù)分析技術(shù)領(lǐng)域,尤其是一種用于圖像捕捉和視頻數(shù)據(jù)分析的基于OpenCV的視頻目標(biāo)跟蹤算法。
背景技術(shù):
視頻跟蹤是近年來興起的一個(gè)研究方向,視頻跟蹤的算法以圖像序列為輸入,輸出的則是圖像中目標(biāo)的各種屬性,如目標(biāo)的大小、位置等。在理想狀況下,這些輸出都是準(zhǔn)確的、實(shí)時(shí)的,然而,在現(xiàn)實(shí)世界中,由于各種干擾的存在,往往很難達(dá)到理想狀態(tài),所以能否排除干擾準(zhǔn)確地捕捉目標(biāo)物體是衡量視頻跟蹤算法好壞的關(guān)鍵。目前,常用的視頻跟蹤算法有如下幾種㈠、Meanshift算法,是一種使用顏色信息來匹配固定大小區(qū)域的圖像的方法。Meanshift算法是一種利用數(shù)據(jù)驅(qū)動(dòng)的無參估計(jì)算法,又稱為核密度估計(jì)算法,主要通過均值偏移向量尋找后驗(yàn)概率局部最優(yōu),也就是說,meanshift算法是通過顏色最相似的區(qū)域來確定匹配區(qū)域的,meanshift算法不支持目標(biāo)的更新。㈡、背景差分法是利用當(dāng)前圖像與背景圖像的差分來識(shí)別運(yùn)動(dòng)目標(biāo)的方法,其背景模型的獲取和更新是該方法中的關(guān)鍵技術(shù)。一種簡(jiǎn)單的獲取背景圖像的方法是當(dāng)場(chǎng)景中無任何目標(biāo)出現(xiàn)時(shí)捕獲背景圖像,這種人工的非自適應(yīng)方法獲取的背景圖像僅適用于短時(shí)間內(nèi)的視頻監(jiān)控。目前大多數(shù)算法已經(jīng)放棄這種非自適應(yīng)的背景圖像估計(jì)方法。當(dāng)場(chǎng)景環(huán)境不是很復(fù)雜時(shí),可以使用統(tǒng)計(jì)濾波完成場(chǎng)景中背景圖像的估計(jì),大多數(shù)情況下都可以得到正確的背景估計(jì)圖像,但是當(dāng)場(chǎng)景中有部分物體做無規(guī)則運(yùn)動(dòng)時(shí),會(huì)引起場(chǎng)景中像素值不斷變化,從而引起估計(jì)誤差?;诟咚菇y(tǒng)計(jì)模型的背景估計(jì)方法在有部分區(qū)域不斷變化的場(chǎng)景中也能比較準(zhǔn)確地估計(jì)出背景模型,但是它的計(jì)算比較復(fù)雜,且無法滿足實(shí)時(shí)性需求。曰、瞬時(shí)差分法是在視頻序列中兩個(gè)相鄰幀間采用基于像素的時(shí)間差分,并且閾值化來提取運(yùn)動(dòng)目標(biāo)的方法,即將相鄰的兩幀圖像做逐像素相減運(yùn)算,并設(shè)定閾值,若差值大于閾值,則將其看作前景圖像(運(yùn)動(dòng)目標(biāo)),否則看作是背景圖像。瞬時(shí)差分法對(duì)于動(dòng)態(tài)環(huán)境的適應(yīng)性較強(qiáng),不需要獲取背景圖像,當(dāng)相鄰兩幀圖像的紋理、灰度等信息比較接近時(shí),可以較準(zhǔn)確地得到運(yùn)動(dòng)物體的外圍輪廓,但通常不能完整地檢測(cè)到目標(biāo)的具體內(nèi)容,易在物體內(nèi)部產(chǎn)生空洞。綜上所述,現(xiàn)有技術(shù)存在的問題是目標(biāo)的識(shí)別跟蹤受環(huán)境變化的影響較大,不支持跟蹤物體的更新;僅依靠單一或較少的信息量作為跟蹤的標(biāo)準(zhǔn)不夠準(zhǔn)確,在背景和目標(biāo)不斷變化的情況下較容易丟失跟蹤或誤跟蹤
發(fā)明內(nèi)容
·
本發(fā)明的目的是針對(duì)現(xiàn)有技術(shù)的不足而設(shè)計(jì)的一種基于OpenCV的視頻目標(biāo)跟蹤算法,以選定的模板與視頻幀進(jìn)行匹配,通過相關(guān)系數(shù)的計(jì)算找出視頻幀中與模板圖像最相似的子圖位置,可以在目標(biāo)物體移動(dòng)和背景不斷變化同時(shí)有陰影影響的情況下,準(zhǔn)確及時(shí)地識(shí)別并跟蹤目標(biāo)物體。本發(fā)明的目的是這樣實(shí)現(xiàn)的一種基于OpenCV的視頻目標(biāo)跟蹤算法,其特點(diǎn)是該視頻目標(biāo)跟蹤算法以選定的模板與視頻幀進(jìn)行匹配,通過相關(guān)系數(shù)的計(jì)算找出視頻幀中與模板圖像最相似的子圖位置,模板的更新根據(jù)卡爾曼濾波器的預(yù)測(cè)位置和相關(guān)系數(shù)值確定,具體算法按下述步驟進(jìn)行(I)、模板匹配以已知的小圖像為模板,將模板疊放在被搜索的大圖像中移動(dòng)搜尋目標(biāo),被模板覆蓋的目標(biāo)區(qū)域?yàn)樽訄D,在被搜索的大圖像中搜索全部可能的位置并計(jì)算每個(gè)位置上子圖與模板的相關(guān)系數(shù),計(jì)算得到的相關(guān)系數(shù)存放在一個(gè)數(shù)組中,其中最大值對(duì)應(yīng)的位置即為與模版最為匹配的子圖位置,其相關(guān)系數(shù)按下式(a)計(jì)算,對(duì)于每一個(gè)子圖,計(jì)算出相應(yīng)的歸一化相關(guān)系數(shù)R(i,j) (-1 ( R(i, j) ( 1),并找出R的最大值Rmax(im,jm),其對(duì)應(yīng)的子圖即為匹配目標(biāo),當(dāng)模板和子圖完全一樣時(shí),相關(guān)系數(shù)R(i,j)=l ;
權(quán)利要求
1.一種基于OpenCV的視頻目標(biāo)跟蹤算法,其特征在于該視頻目標(biāo)跟蹤算法以選定的模板與視頻幀進(jìn)行匹配,通過相關(guān)系數(shù)的計(jì)算找出視頻幀中與模板圖像最相似的子圖位置,模板的更新根據(jù)卡爾曼濾波器的預(yù)測(cè)位置和相關(guān)系數(shù)值確定,具體算法按下述步驟進(jìn)行 (1)、模板匹配 以已知的小圖像為模板,將模板疊放在被搜索的大圖像中移動(dòng)搜尋目標(biāo),被模板覆蓋的目標(biāo)區(qū)域?yàn)樽訄D,在被搜索的大圖像中搜索全部可能的位置并計(jì)算每個(gè)位置上子圖與模板的相關(guān)系數(shù),計(jì)算得到的相關(guān)系數(shù)存放在一個(gè)數(shù)組中,其中最大值對(duì)應(yīng)的位置即為與模版最為匹配的子圖位置,其相關(guān)系數(shù)按下式(a)計(jì)算,對(duì)于每一個(gè)子圖,計(jì)算出相應(yīng)的歸一化相關(guān)系數(shù)R(i,j) (-1彡R(i,j) ( 1),并找出R的最大值Rmax(Um),其對(duì)應(yīng)的子圖即為匹配目標(biāo),當(dāng)模板和子圖完全一樣時(shí),相關(guān)系數(shù)R(i,j)=l ;
全文摘要
本發(fā)明公開了一種基于OpenCV的視頻目標(biāo)跟蹤算法,其特點(diǎn)是該視頻目標(biāo)跟蹤算法以選定的模板與視頻幀進(jìn)行匹配,通過相關(guān)系數(shù)的計(jì)算找出視頻幀中與模板圖像最相似的子圖位置,模板的更新根據(jù)卡爾曼濾波器的預(yù)測(cè)位置和相關(guān)系數(shù)值確定,具體算法包括模板匹配、位置預(yù)測(cè)和模板更新。本發(fā)明與現(xiàn)有技術(shù)相比具有目標(biāo)的識(shí)別和跟蹤不受環(huán)境變化的影響,能及時(shí)準(zhǔn)確地識(shí)別和跟蹤目標(biāo)物體,支持跟蹤物體的更新,使系統(tǒng)在跟蹤時(shí)能動(dòng)態(tài)更新模板,跟蹤在環(huán)境和物體變化的情況下更準(zhǔn)確,以多個(gè)參數(shù)作為跟蹤的依據(jù),跟蹤更可靠,在目標(biāo)物體移動(dòng)、背景不斷變化和有陰影影響的情況下不易丟失跟蹤。
文檔編號(hào)G06T7/20GK102915545SQ20121035313
公開日2013年2月6日 申請(qǐng)日期2012年9月20日 優(yōu)先權(quán)日2012年9月20日
發(fā)明者鄭翔宇, 陳偉婷 申請(qǐng)人:華東師范大學(xué)