国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      無重疊視域多攝像機(jī)人體目標(biāo)跟蹤方法

      文檔序號(hào):7697396閱讀:233來源:國(guó)知局

      專利名稱::無重疊視域多攝像機(jī)人體目標(biāo)跟蹤方法
      技術(shù)領(lǐng)域
      :本發(fā)明涉及一種多攝像機(jī)視頻監(jiān)控領(lǐng)域中的目標(biāo)跟蹤方法,具體是一種在多攝像機(jī)之間拓?fù)潢P(guān)系已知的情況下,在無重疊視域的多攝像機(jī)視頻中進(jìn)行人體目標(biāo)匹配與跟蹤的方法。屬于視頻監(jiān)控
      技術(shù)領(lǐng)域
      。
      背景技術(shù)
      :隨著視頻監(jiān)控技術(shù)的快速發(fā)展,以及單攝像機(jī)有限的視域無法滿足廣域視頻監(jiān)控的要求,無重疊視域多攝像機(jī)目標(biāo)跟蹤成為有效解決廣域視頻監(jiān)控問題的一種途徑。無重疊視域多攝像機(jī)目標(biāo)跟蹤問題不同于單攝像機(jī)和重疊視域多攝像機(jī)跟蹤問題。單攝像機(jī)目標(biāo)跟蹤的研究主要集中在背景建模、前景檢測(cè)、陰影去除、遮擋處理等關(guān)鍵問題上,這些關(guān)鍵問題也是多攝像機(jī)目標(biāo)跟蹤的研究基礎(chǔ)。多攝像機(jī)目標(biāo)跟蹤從視域角度上看可以分為重疊視域多攝像機(jī)目標(biāo)跟蹤與無重疊視域多攝像機(jī)目標(biāo)跟蹤。對(duì)于前者由于視域是重疊的,目標(biāo)在離開前一個(gè)攝像機(jī)視域之前已經(jīng)出現(xiàn)在后一個(gè)攝像機(jī)的視域中,因此攝像機(jī)之間的目標(biāo)跟蹤可以由一個(gè)攝像機(jī)傳遞給另一個(gè)。而對(duì)于后者由于攝像機(jī)之間存在一個(gè)盲區(qū),目標(biāo)在這個(gè)盲區(qū)內(nèi)的運(yùn)動(dòng)無法獲知,因此造成時(shí)間和空間上的不連續(xù),這為問題的解決設(shè)置了巨大障礙,而且使得前者的許多研究方法無法有效地應(yīng)用到后者中。對(duì)于無重疊視域多攝像機(jī)目標(biāo)跟蹤問題,由于問題本身的復(fù)雜性和困難性,目前仍處于研究的初級(jí)階段。經(jīng)對(duì)現(xiàn)有技術(shù)文獻(xiàn)的檢索發(fā)現(xiàn),無重疊視域多攝像機(jī)目標(biāo)跟蹤問題的研究主要集中在不同攝像機(jī)中相同目標(biāo)的匹配以及監(jiān)控?cái)z像機(jī)之間拓?fù)潢P(guān)系的估計(jì)。目前已有的匹配方法主要為對(duì)目標(biāo)建立外觀模型。Javed等人于2008年在《ComputerVisionandImageUnderstanding》(計(jì)算機(jī)視覺與圖像理解)發(fā)表的論文"Modelinginter-cameraspace-timeandappearancerelationshipsfortrackingacrossnon-overlappingviews"(針對(duì)非重疊視域跟蹤的多攝像機(jī)時(shí)空及外觀關(guān)系建模)運(yùn)用顏色直方圖建立外觀模型。Teixeira等人于2008年在《PatternRecognitionLetters》)(模式識(shí)另U快報(bào))發(fā)表的論文"Videoobjectmatchingacrossmultipleindependentviewsusinglocaldescriptorsandadaptivelearning"(基于局部特征描述器及適應(yīng)性學(xué)習(xí)的獨(dú)立多攝像機(jī)視頻目標(biāo)匹配)運(yùn)用一個(gè)由量化的局部特征描述器組成的直方圖建立外觀模型。然而,由于多攝像機(jī)視域中各攝像機(jī)之間多種因素變化的不確定性,這些特征均無法對(duì)于這些不確定因素同時(shí)具有魯棒性。Javed等人于2008年在《ComputerVisionandImageUnderstanding》(計(jì)算機(jī)視覺與圖像理解)發(fā)表的論文"Modelinginter-cameraspace-timeandappearancerelationshipsfortrackingacrossnon-overl即pingviews"(針對(duì)非重疊視域跟蹤的多攝像機(jī)時(shí)空及外觀關(guān)系建模)采用一個(gè)基于Parzen窗和高斯核的混合概率密度估計(jì)器來估計(jì)由時(shí)間間隔、進(jìn)出觀測(cè)視域的位置和進(jìn)出視域時(shí)的運(yùn)動(dòng)速度等量組成的概率密度函數(shù),整個(gè)估計(jì)過程通過學(xué)習(xí)訓(xùn)練集數(shù)據(jù)的方法實(shí)現(xiàn)。然而,這種方法算法復(fù)雜,不易實(shí)現(xiàn),因此不適合實(shí)際的工程運(yùn)用。
      發(fā)明內(nèi)容本發(fā)明的目的在于針對(duì)現(xiàn)有技術(shù)的不足,提供一種無重疊視域多攝像機(jī)人體目標(biāo)跟蹤方法,能在多攝像機(jī)之間的拓?fù)潢P(guān)系已知的前提下,實(shí)時(shí)準(zhǔn)確的跟蹤單個(gè)行人目標(biāo)。為實(shí)現(xiàn)上述目的,本發(fā)明首先建立多攝像機(jī)之間的拓?fù)潢P(guān)系矩陣,然后提取行人目標(biāo)的前景圖像,接著通過人機(jī)交互界面在某個(gè)攝像機(jī)的視域范圍選定跟蹤目標(biāo),并使用混合高斯模型提取該目標(biāo)的外觀特征,包括顏色直方圖特征和UV色度特征,在整個(gè)跟蹤過程中,采用樹的結(jié)構(gòu)對(duì)跟蹤任務(wù)進(jìn)行管理,并采用貝葉斯模型估計(jì)全局相似度,根據(jù)全局相似度尋找最佳匹配目標(biāo)。本發(fā)明方法通過以下具體步驟實(shí)現(xiàn)1、為每個(gè)攝像機(jī)設(shè)定編號(hào)1,2,……,N;為每個(gè)攝像機(jī)定義出入口編號(hào)1,2,……,m;從一個(gè)攝像機(jī)的某個(gè)出口至另一個(gè)攝像機(jī)的某個(gè)入口所用平均時(shí)間為f;引入一個(gè)時(shí)間窗參數(shù)W,使得所有行人從一個(gè)攝像機(jī)的某個(gè)出口至另一個(gè)攝像機(jī)的某個(gè)入口所用時(shí)間落在(t-w,t+w)區(qū)間內(nèi);根據(jù)己知多攝像機(jī)之間的拓?fù)潢P(guān)系,建立拓?fù)潢P(guān)系矩陣,11^12,21^22,2j,2W《J…('W,i=l,2,',N;j=l,2,',N;其中,^表示從攝像機(jī)Z'到攝像機(jī)_/之間的連接信息,^用以下結(jié)構(gòu)表示(攝像機(jī)號(hào)i,出口號(hào)),(攝像機(jī)號(hào)j,入口號(hào)),平均時(shí)間,時(shí)間窗}。2、將攝像機(jī)采集的視頻讀入計(jì)算機(jī),對(duì)每幀圖像進(jìn)行背景建模與背景實(shí)時(shí)更新,通過當(dāng)前幀與背景幀相減的方法,得到每個(gè)行人目標(biāo)的前景圖像。3、通過人機(jī)交互界面在某個(gè)攝像機(jī)的視域范圍選定跟蹤目標(biāo),根據(jù)與該跟蹤目標(biāo)對(duì)應(yīng)的行人目標(biāo)前景圖像,使用混合高斯模型提取跟蹤目標(biāo)的外觀特征,包括顏色直方圖特征和uv色度特征。4、當(dāng)跟蹤目標(biāo)走出選定時(shí)所在攝像機(jī)視域范圍,則針對(duì)該攝像機(jī)建立節(jié)點(diǎn)作為跟蹤樹的根節(jié)點(diǎn);然后根據(jù)拓?fù)潢P(guān)系矩陣得到與該攝像機(jī)相連的所有攝像機(jī),并向這些攝像機(jī)發(fā)布跟蹤任務(wù),同時(shí)針對(duì)這些攝像機(jī)為根節(jié)點(diǎn)分別建立子節(jié)點(diǎn);所述節(jié)點(diǎn)的結(jié)構(gòu)為節(jié)點(diǎn)={父節(jié)點(diǎn),子節(jié)點(diǎn),攝像機(jī)號(hào),對(duì)應(yīng)跟蹤任務(wù),行人目標(biāo)對(duì)象};其中行人目標(biāo)對(duì)象包括行人目標(biāo)的外觀特征以及該行人目標(biāo)與選定跟蹤目標(biāo)之間的全局相似度;所述跟蹤任務(wù)的結(jié)構(gòu)為跟蹤任務(wù)={監(jiān)控時(shí)間,出入口號(hào),對(duì)應(yīng)節(jié)點(diǎn)}。5、當(dāng)行人目標(biāo)進(jìn)入某個(gè)攝像機(jī)的視域范圍,則在該攝像機(jī)的跟蹤任務(wù)列表中尋找與之匹配的跟蹤任務(wù);若存在匹配的跟蹤任務(wù),則根據(jù)該行人目標(biāo)的前景圖像,使用混合高斯模型提取該行人目標(biāo)的顏色直方圖特征和UV色度特征;計(jì)算該行人目標(biāo)與選定跟蹤目標(biāo)之間的相似度,再利用貝葉斯模型估計(jì)全局相似度,將此全局相似度與該攝像機(jī)對(duì)應(yīng)節(jié)點(diǎn)中保存行人目標(biāo)對(duì)象的全局相似度進(jìn)行比較,保留較大者對(duì)應(yīng)的行人目標(biāo)對(duì)象作為局部最佳匹配目標(biāo),再根據(jù)全局相似度在該攝像機(jī)所對(duì)應(yīng)的當(dāng)前層節(jié)點(diǎn)中尋找全局最佳匹配節(jié)點(diǎn),對(duì)于失去全局最佳匹配節(jié)點(diǎn)身份的節(jié)點(diǎn),刪除其子節(jié)點(diǎn)。6、當(dāng)與全局最佳匹配節(jié)點(diǎn)對(duì)應(yīng)的行人目標(biāo)走出某個(gè)攝像機(jī)的視域范圍,則根據(jù)拓?fù)潢P(guān)系矩陣得到所有與該攝像機(jī)相連的攝像機(jī),并向這些攝像機(jī)發(fā)布跟蹤任務(wù),同時(shí)針對(duì)這些攝像機(jī)為當(dāng)前節(jié)點(diǎn)分別建立子節(jié)點(diǎn)。7、當(dāng)某個(gè)跟蹤任務(wù)的監(jiān)控時(shí)間失效,在該跟蹤任務(wù)對(duì)應(yīng)節(jié)點(diǎn)的所有兄弟節(jié)點(diǎn)中尋找全局最佳匹配節(jié)點(diǎn),若該跟蹤任務(wù)對(duì)應(yīng)節(jié)點(diǎn)不是全局最佳匹配節(jié)點(diǎn),則刪除該跟蹤任務(wù)對(duì)應(yīng)節(jié)點(diǎn)及其子節(jié)點(diǎn)。8、若所有節(jié)點(diǎn)的跟蹤任務(wù)時(shí)間均失效,則完成無重疊視域多攝像機(jī)的目標(biāo)本發(fā)明與現(xiàn)有技術(shù)相比的顯著效果在于融合兩種特征建立外觀模型以實(shí)現(xiàn)更加精確的匹配,并利用己知的拓?fù)潢P(guān)系來輔助目標(biāo)匹配,具有精確度高,算法簡(jiǎn)單,易于實(shí)現(xiàn)、實(shí)時(shí)性強(qiáng)等優(yōu)點(diǎn),可以為多攝像機(jī)目標(biāo)識(shí)別與跟蹤提供一種新的實(shí)時(shí)可靠的方法。圖1為本發(fā)明方法步驟方框示意圖。圖2為攝像機(jī)出入口號(hào)定義方式示意圖。圖3為攝像機(jī)拓?fù)浣Y(jié)構(gòu)示意圖。圖4為跟蹤樹示意圖。具體實(shí)施例方式下面結(jié)合附圖和實(shí)施例對(duì)本發(fā)明的技術(shù)方案作詳細(xì)說明。本實(shí)施例在以本發(fā)明技術(shù)方案為前提下進(jìn)行實(shí)施,給出了詳細(xì)的實(shí)施方式和過程,但本發(fā)明的保護(hù)范圍不限于下述的實(shí)施例。為了便于理解本發(fā)明提出的方法,在本實(shí)施例中選取非重疊視域攝像機(jī)數(shù)目為4,所選取的視頻中共有兩個(gè)行人分別為行人A與行人B先后經(jīng)過,行人A依次經(jīng)過攝像機(jī)l、2、4的視域,行人B依次經(jīng)過攝像機(jī)1、3、4的視域。圖1給出了本發(fā)明方法流程示意圖。如圖1所示,本實(shí)施例具體實(shí)施步驟如下1、建立多攝像機(jī)之間的拓?fù)潢P(guān)系矩陣在本實(shí)施例中選取非重疊視域攝像機(jī)數(shù)目為4,依次為每個(gè)攝像機(jī)設(shè)定編號(hào)1,2,3,4;然后,所有攝像機(jī)均按附圖2所示方式定義出入口編號(hào)1,2,3,4;根據(jù)攝像機(jī)的實(shí)際連接方式以及以上定義,可以畫出本實(shí)施例中4個(gè)攝像機(jī)的拓?fù)浣Y(jié)構(gòu)如附圖3所示。定義從一個(gè)攝像機(jī)的某個(gè)出口至另一個(gè)攝像機(jī)的某個(gè)入口所用平均時(shí)間為6引入一個(gè)時(shí)間窗參數(shù)w,使得所有行人從一個(gè)攝像機(jī)的某個(gè)出口至另一個(gè)攝像機(jī)的某個(gè)入口所用時(shí)間落在(t-w,t+w)區(qū)間內(nèi)。t與w的取值根據(jù)一定數(shù)量的樣本統(tǒng)計(jì)得到。如圖3所示,本實(shí)施例中,行人A的行走路線中,1號(hào)攝像機(jī)的4號(hào)出口至2號(hào)攝像機(jī)的4號(hào)入口所用平均時(shí)間r為21s,時(shí)間窗參數(shù)w=5s;2號(hào)攝像機(jī)的2號(hào)出口至4號(hào)攝像機(jī)的4號(hào)入口所用平均時(shí)間f為44s,時(shí)間窗參數(shù)w^9s。行人B行走的路線中,l號(hào)攝像機(jī)的4號(hào)出口至3號(hào)攝像機(jī)的4號(hào)入口所用平均時(shí)間f為28s,時(shí)間窗參數(shù)w=7s;3號(hào)攝像機(jī)的2號(hào)出口至4號(hào)攝像機(jī)的4號(hào)入口所用平均時(shí)間/為35s,時(shí)間窗參數(shù)w=8s。根據(jù)已知的拓?fù)潢P(guān)系,建立多攝像機(jī)之間的拓?fù)潢P(guān)系矩陣<formula>formulaseeoriginaldocumentpage8</formula>其中,^表示從攝像機(jī)/到攝像機(jī)/之間的連接信息,包括出口號(hào)、入口號(hào)、平均時(shí)間以及時(shí)間窗參數(shù)。^用以下結(jié)構(gòu)表示(攝像機(jī)號(hào)i,出口號(hào)),(攝像機(jī)號(hào)j,入口號(hào)),平均時(shí)間,時(shí)間窗}。如果兩攝像機(jī)之間不存在連接,則出口號(hào)與入口號(hào)賦-1,平均時(shí)間與時(shí)間窗賦0。2、提取行人目標(biāo)的前景圖像采用OpenCV(Intel開源計(jì)算機(jī)視覺庫)中的功能函數(shù)進(jìn)行視頻讀取,把攝像機(jī)采集的視頻讀入計(jì)算機(jī),然后采用TaoYang等人于2005年在CVPR(計(jì)算機(jī)視覺與模式識(shí)別會(huì)議)發(fā)表的論文"Real-timeMultipleObjectsTrackingw他OcclusionHandlinginDynamicScenes"(動(dòng)態(tài)場(chǎng)景中的實(shí)時(shí)重疊多目標(biāo)跟蹤)中的方法對(duì)每幀圖像進(jìn)行背景建模與背景實(shí)時(shí)更新。通過當(dāng)前幀與背景幀相減的方法,并結(jié)合高斯濾波與形態(tài)學(xué)處理,可以得到比較準(zhǔn)確的每個(gè)行人目標(biāo)的前景圖像。3、選定跟蹤目標(biāo),提取跟蹤目標(biāo)的外觀特征當(dāng)行人A首先出現(xiàn)在攝像機(jī)1的視域,通過人機(jī)交互界面選定它為跟蹤目標(biāo)。使用Cai等人于2007年在ACCV(亞洲計(jì)算機(jī)視覺會(huì)議)發(fā)表的論文"Continuouslytrackingobjectsacrossmultiplewidelyseparatedcameras"(廣域非重疊多攝像機(jī)持續(xù)目標(biāo)跟蹤)的方法提取基于前景分割的顏色直方圖特征。根據(jù)空間關(guān)系將目標(biāo)劃分為三個(gè)部分,對(duì)于每部分使用高斯混合模型(GMM)來估計(jì)顏色分布,不同部分的權(quán)值由下式計(jì)算—來=&,)其中,",和^代表攝像機(jī)A和B中的檢測(cè)目標(biāo),代表&和^中的對(duì)應(yīng)部分相匹配的概率,戶(^=6,)代表攝像機(jī)A和B中的目標(biāo)相匹配的概率。"f吏用Jeong禾口Jaynes于2008年在《MachineVisionandApplications》(機(jī)器視覺及應(yīng)用)發(fā)表的論文"Objectmatchingindisjointcamerasusingacolortransferapproach"(使用顏色轉(zhuǎn)換方法的非重疊攝像機(jī)目標(biāo)匹配)提取UV色度空間模型。將目標(biāo)劃分為三個(gè)部分,根據(jù)YUV顏色空間的UV通道建立色度平面。對(duì)于平面上的顏色分布建立二維高斯混合模型。權(quán)值計(jì)算同顏色直方圖。多攝像機(jī)之間的跟蹤任務(wù)管理采用樹的結(jié)構(gòu)進(jìn)行,在本實(shí)施例中,整個(gè)管理過程依次通過以下幾步實(shí)現(xiàn)4、選定的跟蹤目標(biāo)(行人A)走出攝像機(jī)1的視域范圍,則針對(duì)攝像機(jī)1建立節(jié)點(diǎn)作為跟蹤樹的根節(jié)點(diǎn);然后搜索拓?fù)潢P(guān)系矩陣,得到所有與之相連的攝像機(jī)為攝像機(jī)2和攝像機(jī)3;根據(jù)平均時(shí)間t與時(shí)間窗W向攝像機(jī)2和攝像機(jī)3發(fā)布跟蹤任務(wù),同時(shí)針對(duì)攝像機(jī)2和攝像機(jī)3為根節(jié)點(diǎn)建立子節(jié)點(diǎn);所述節(jié)點(diǎn)的結(jié)構(gòu)為節(jié)點(diǎn)={父節(jié)點(diǎn),子節(jié)點(diǎn),攝像機(jī)號(hào),對(duì)應(yīng)跟蹤任務(wù),行人目標(biāo)對(duì)象};其中行人目標(biāo)對(duì)象包括行人目標(biāo)的外觀特征以及該行人目標(biāo)與選定跟蹤目標(biāo)之間的全局相似度;所述跟蹤任務(wù)的結(jié)構(gòu)為跟蹤任務(wù)={監(jiān)控時(shí)間,出入口號(hào),對(duì)應(yīng)節(jié)點(diǎn)};此時(shí)的跟蹤樹如附圖4(a)所示。圖中節(jié)點(diǎn)內(nèi)的標(biāo)號(hào)代表對(duì)應(yīng)的攝像機(jī)號(hào)。5、行人A進(jìn)入攝像機(jī)2的視域,則在攝像機(jī)2的跟蹤任務(wù)列表中根據(jù)待監(jiān)控的攝像機(jī)出入口號(hào)以及有效監(jiān)控時(shí)間尋找與之匹配的跟蹤任務(wù);結(jié)果為存在匹配的跟蹤任務(wù),則根據(jù)該行人目標(biāo)的前景圖像,使用混合高斯模型提取該行人目標(biāo)的顏色直方圖特征和UV色度特征;計(jì)算該行人目標(biāo)與選定跟蹤目標(biāo)之間的相似度,再利用貝葉斯模型估計(jì)全局相似度,將該行人目標(biāo)對(duì)象作為局部最佳匹配目標(biāo)保存在攝像機(jī)2對(duì)應(yīng)節(jié)點(diǎn)中;再根據(jù)全局相似度在攝像機(jī)1所對(duì)應(yīng)的當(dāng)前層節(jié)點(diǎn)中尋找全局最佳匹配節(jié)點(diǎn),結(jié)果為攝像機(jī)2對(duì)應(yīng)節(jié)點(diǎn)為最佳匹配節(jié)點(diǎn)。接著,行人B進(jìn)入攝像機(jī)3的視域,則在攝像機(jī)3的監(jiān)控任務(wù)列表中根據(jù)待監(jiān)控的攝像機(jī)出入口號(hào)以及有效監(jiān)控時(shí)間尋找與之匹配的監(jiān)控任務(wù);結(jié)果為存在匹配的監(jiān)控任務(wù),則根據(jù)該行人目標(biāo)的前景圖像,使用混合高斯模型提取該行人目標(biāo)的顏色直方圖特征和UV色度特征;計(jì)算該行人目標(biāo)與選定跟蹤目標(biāo)之間的相似度,再利用貝葉斯模型估計(jì)全局相似度,將該行人目標(biāo)對(duì)象作為局部最佳匹配目標(biāo)保存在攝像機(jī)3對(duì)應(yīng)節(jié)點(diǎn)中;此時(shí)攝像機(jī)3所對(duì)應(yīng)的當(dāng)前層中有兩個(gè)節(jié)點(diǎn),比較它們的全局相似度,取相似度最大者為最佳匹配節(jié)點(diǎn);結(jié)果上一步出現(xiàn)的行人(行人A)相似度更大,因此攝像機(jī)2對(duì)應(yīng)節(jié)點(diǎn)被判為當(dāng)前的最佳匹配節(jié)點(diǎn);由于未發(fā)生最佳匹配節(jié)點(diǎn)身份的轉(zhuǎn)移,所以不需進(jìn)行刪除子節(jié)點(diǎn)操作。6、行人A走出攝像機(jī)2的視域,搜索拓?fù)潢P(guān)系矩陣,得到所有與攝像機(jī)2出口相連的攝像機(jī)為攝像機(jī)4;根據(jù)平均時(shí)間t與時(shí)間窗w向攝像機(jī)4發(fā)布跟蹤任務(wù),同時(shí)針對(duì)攝像機(jī)4為當(dāng)前節(jié)點(diǎn)建立子節(jié)點(diǎn);此時(shí)的跟蹤樹如附圖4(b)所示。7、攝像機(jī)2的跟蹤任務(wù)監(jiān)控時(shí)間失效,在攝像機(jī)2對(duì)應(yīng)節(jié)點(diǎn)的所有兄弟節(jié)點(diǎn)中尋找全局最佳匹配節(jié)點(diǎn),結(jié)果攝像機(jī)2對(duì)應(yīng)節(jié)點(diǎn)為最佳匹配節(jié)點(diǎn);因此不進(jìn)行刪除節(jié)點(diǎn)操作。攝像機(jī)3的跟蹤任務(wù)監(jiān)控時(shí)間失效,在攝像機(jī)3對(duì)應(yīng)節(jié)點(diǎn)的所有兄弟節(jié)點(diǎn)中尋找全局最佳匹配節(jié)點(diǎn),結(jié)果攝像機(jī)2對(duì)應(yīng)節(jié)點(diǎn)為最佳匹配節(jié)點(diǎn);刪除攝像機(jī)3對(duì)應(yīng)節(jié)點(diǎn)及其子節(jié)點(diǎn);此時(shí)的跟蹤樹如附圖4(c)所示。行人A走出攝像機(jī)2的視域范圍后,進(jìn)入了攝像機(jī)4的視域,采用與步驟5相同的方法進(jìn)行跟蹤任務(wù)管理。即在攝像機(jī)4的跟蹤任務(wù)列表中根據(jù)待監(jiān)控的攝像機(jī)出入口號(hào)以及有效監(jiān)控時(shí)間尋找與之匹配的跟蹤任務(wù);結(jié)果為存在匹配的跟蹤任務(wù),則根據(jù)該行人目標(biāo)的前景圖像,使用混合高斯模型提取該行人目標(biāo)的顏色直方圖特征和UV色度特征;計(jì)算該行人目標(biāo)與選定跟蹤目標(biāo)之間的相似度,再利用貝葉斯模型估計(jì)全局相似度,將該行人目標(biāo)對(duì)象作為局部最佳匹配目標(biāo)保存在攝像機(jī)2對(duì)應(yīng)節(jié)點(diǎn)中,再根據(jù)全局相似度在攝像機(jī)4所對(duì)應(yīng)的當(dāng)前層節(jié)點(diǎn)中尋找全局最佳匹配節(jié)點(diǎn),由于此時(shí)當(dāng)前層只有一個(gè)節(jié)點(diǎn),于是它被判為當(dāng)前的最佳匹配目標(biāo)。行人A走出攝像機(jī)4的視域,搜索拓?fù)潢P(guān)系矩陣,沒有與攝像機(jī)4出口相連的其它攝像機(jī),不進(jìn)行任何操作。攝像機(jī)4的跟蹤任務(wù)監(jiān)控時(shí)間失效,在攝像機(jī)4對(duì)應(yīng)節(jié)點(diǎn)的所有兄弟節(jié)點(diǎn)中尋找全局最佳匹配節(jié)點(diǎn),由于當(dāng)前層只有一個(gè)節(jié)點(diǎn),結(jié)果攝像機(jī)4對(duì)應(yīng)節(jié)點(diǎn)為最佳匹配節(jié)點(diǎn);因此不進(jìn)行刪除節(jié)點(diǎn)操作。8、攝像機(jī)4的跟蹤任務(wù)監(jiān)控時(shí)間失效,即所有攝像機(jī)的跟蹤任務(wù)監(jiān)控時(shí)間失效,則完成無重疊視域多攝像機(jī)的目標(biāo)跟蹤。于是,在整個(gè)跟蹤過程中,成功地跟蹤了行人A的運(yùn)動(dòng)軌跡。權(quán)利要求1、一種無重疊視域多攝像機(jī)人體目標(biāo)跟蹤方法,其特征在于包括以下步驟1)為每個(gè)攝像機(jī)設(shè)定編號(hào)1,2,……,N;為每個(gè)攝像機(jī)定義出入口編號(hào)1,2,……,m;從一個(gè)攝像機(jī)的某個(gè)出口至另一個(gè)攝像機(jī)的某個(gè)入口所用平均時(shí)間為t;引入一個(gè)時(shí)間窗參數(shù)w,使得所有行人從一個(gè)攝像機(jī)的某個(gè)出口至另一個(gè)攝像機(jī)的某個(gè)入口所用時(shí)間落在(t-w,t+w)區(qū)間內(nèi);根據(jù)已知多攝像機(jī)之間的拓?fù)潢P(guān)系,建立拓?fù)潢P(guān)系矩陣<mathsid="math0001"num="0001"><math><![CDATA[<mrow><mi>T</mi><mo>=</mo><mfencedopen='['close=']'><mtable><mtr><mtd><msub><mi>t</mi><mn>11</mn></msub></mtd><mtd><msub><mi>t</mi><mn>12</mn></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mrow><mn>1</mn><mi>j</mi></mrow></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mrow><mn>1</mn><mi>N</mi></mrow></msub></mtd></mtr><mtr><mtd><msub><mi>t</mi><mn>21</mn></msub></mtd><mtd><msub><mi>t</mi><mn>22</mn></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mrow><mn>2</mn><mi>j</mi></mrow></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mrow><mn>2</mn><mi>N</mi></mrow></msub></mtd></mtr><mtr><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd></mtr><mtr><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd></mtr><mtr><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd></mtr><mtr><mtd><msub><mi>t</mi><mrow><mi>i</mi><mn>1</mn></mrow></msub></mtd><mtd><msub><mi>t</mi><mrow><mi>i</mi><mn>2</mn></mrow></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mi>ij</mi></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mi>iN</mi></msub></mtd></mtr><mtr><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd></mtr><mtr><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd></mtr><mtr><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd></mtd><mtd></mtd><mtd></mtd><mtd><mo>&CenterDot;</mo></mtd></mtr><mtr><mtd><msub><mi>t</mi><mrow><mi>N</mi><mn>1</mn></mrow></msub></mtd><mtd><msub><mi>t</mi><mrow><mi>N</mi><mn>2</mn></mrow></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mi>Nj</mi></msub></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><mo>&CenterDot;</mo></mtd><mtd><msub><mi>t</mi><mi>NN</mi></msub></mtd></mtr></mtable></mfenced><mo>,</mo></mrow>]]></math>id="icf0001"file="A2009100549250002C1.tif"wi="45"he="39"top="83"left="46"img-content="drawing"img-format="tif"orientation="portrait"inline="yes"/></maths>i=1,2,……,N;j=1,2,……,N;其中,tij表示從攝像機(jī)i到攝像機(jī)j之間的連接信息,tij用以下結(jié)構(gòu)表示tij={(攝像機(jī)號(hào)i,出口號(hào)),(攝像機(jī)號(hào)j,入口號(hào)),平均時(shí)間,時(shí)間窗};2)將攝像機(jī)采集的視頻讀入計(jì)算機(jī),對(duì)每幀圖像進(jìn)行背景建模與背景實(shí)時(shí)更新,通過當(dāng)前幀與背景幀相減的方法,得到每個(gè)行人目標(biāo)的前景圖像;3)通過人機(jī)交互界面在某個(gè)攝像機(jī)的視域范圍選定跟蹤目標(biāo),根據(jù)與該跟蹤目標(biāo)對(duì)應(yīng)的行人目標(biāo)前景圖像,使用混合高斯模型提取跟蹤目標(biāo)的外觀特征,包括顏色直方圖特征和UV色度特征;4)當(dāng)跟蹤目標(biāo)走出選定時(shí)所在攝像機(jī)視域范圍,則針對(duì)該攝像機(jī)建立節(jié)點(diǎn)作為跟蹤樹的根節(jié)點(diǎn);然后根據(jù)拓?fù)潢P(guān)系矩陣得到與該攝像機(jī)相連的所有攝像機(jī),并向這些攝像機(jī)發(fā)布跟蹤任務(wù),同時(shí)針對(duì)這些攝像機(jī)為根節(jié)點(diǎn)分別建立子節(jié)點(diǎn);所述節(jié)點(diǎn)的結(jié)構(gòu)為節(jié)點(diǎn)={父節(jié)點(diǎn),子節(jié)點(diǎn),攝像機(jī)號(hào),對(duì)應(yīng)跟蹤任務(wù),行人目標(biāo)對(duì)象};其中行人目標(biāo)對(duì)象包括行人目標(biāo)的外觀特征以及該行人目標(biāo)與選定跟蹤目標(biāo)之間的全局相似度;所述跟蹤任務(wù)的結(jié)構(gòu)為跟蹤任務(wù)={監(jiān)控時(shí)間,出入口號(hào),對(duì)應(yīng)節(jié)點(diǎn)};5)當(dāng)行人目標(biāo)進(jìn)入某個(gè)攝像機(jī)的視域范圍,則在該攝像機(jī)的跟蹤任務(wù)列表中尋找與之匹配的跟蹤任務(wù);若存在匹配的跟蹤任務(wù),則根據(jù)該行人目標(biāo)的前景圖像,使用混合高斯模型提取該行人目標(biāo)的顏色直方圖特征和UV色度特征;計(jì)算該行人目標(biāo)與選定跟蹤目標(biāo)之間的相似度,再利用貝葉斯模型估計(jì)全局相似度,將此全局相似度與該攝像機(jī)對(duì)應(yīng)節(jié)點(diǎn)中保存行人目標(biāo)對(duì)象的全局相似度進(jìn)行比較,保留較大者對(duì)應(yīng)的行人目標(biāo)對(duì)象作為局部最佳匹配目標(biāo),再根據(jù)全局相似度在該攝像機(jī)所對(duì)應(yīng)的當(dāng)前層節(jié)點(diǎn)中尋找全局最佳匹配節(jié)點(diǎn);對(duì)于失去全局最佳匹配節(jié)點(diǎn)身份的節(jié)點(diǎn),刪除其子節(jié)點(diǎn);6)當(dāng)與全局最佳匹配節(jié)點(diǎn)對(duì)應(yīng)的行人目標(biāo)走出某個(gè)攝像機(jī)的視域范圍,則根據(jù)拓?fù)潢P(guān)系矩陣得到所有與該攝像機(jī)相連的攝像機(jī),并向這些攝像機(jī)發(fā)布跟蹤任務(wù),同時(shí)針對(duì)這些攝像機(jī)為當(dāng)前節(jié)點(diǎn)分別建立子節(jié)點(diǎn);7)當(dāng)某個(gè)跟蹤任務(wù)的監(jiān)控時(shí)間失效,在該跟蹤任務(wù)對(duì)應(yīng)節(jié)點(diǎn)的所有兄弟節(jié)點(diǎn)中尋找全局最佳匹配節(jié)點(diǎn),若該跟蹤任務(wù)對(duì)應(yīng)節(jié)點(diǎn)不是全局最佳匹配節(jié)點(diǎn),則刪除該跟蹤任務(wù)對(duì)應(yīng)節(jié)點(diǎn)及其子節(jié)點(diǎn);8)若所有節(jié)點(diǎn)的跟蹤任務(wù)時(shí)間均失效,則完成無重疊視域多攝像機(jī)的目標(biāo)跟蹤。全文摘要本發(fā)明涉及一種無重疊視域多攝像機(jī)人體目標(biāo)跟蹤方法,具體是一種在多攝像機(jī)之間拓?fù)潢P(guān)系已知的情況下,在無重疊視域的多攝像機(jī)視頻中進(jìn)行目標(biāo)匹配與跟蹤的方法,首先建立多攝像機(jī)之間的拓?fù)潢P(guān)系矩陣,然后提取行人目標(biāo)的前景圖像,接著通過人機(jī)交互界面在某個(gè)攝像機(jī)的視域范圍選定跟蹤目標(biāo),并使用混合高斯模型提取該目標(biāo)的外觀特征,包括顏色直方圖特征和UV色度特征,在整個(gè)跟蹤過程中,采用樹的結(jié)構(gòu)對(duì)跟蹤任務(wù)進(jìn)行管理,并采用貝葉斯模型估計(jì)全局相似度,根據(jù)全局相似度尋找最佳匹配目標(biāo)。本發(fā)明具有精確度高、算法簡(jiǎn)單、易于實(shí)現(xiàn)、實(shí)時(shí)性強(qiáng)等優(yōu)點(diǎn),可以為多攝像機(jī)目標(biāo)識(shí)別與跟蹤提供一種新的實(shí)時(shí)可靠的方法。文檔編號(hào)H04N7/18GK101616309SQ20091005492公開日2009年12月30日申請(qǐng)日期2009年7月16日優(yōu)先權(quán)日2009年7月16日發(fā)明者劉允才,呂曉威,雄李,菲翁申請(qǐng)人:上海交通大學(xué)
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1