国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      視頻結(jié)構(gòu)化描述中的行人定位方法及其裝置的制造方法

      文檔序號:8299697閱讀:779來源:國知局
      視頻結(jié)構(gòu)化描述中的行人定位方法及其裝置的制造方法
      【技術(shù)領(lǐng)域】
      [0001]本發(fā)明涉及視頻監(jiān)控技術(shù)領(lǐng)域,具體而言,涉及一種視頻結(jié)構(gòu)化描述中的行人定位方法及其裝置。
      【背景技術(shù)】
      [0002]當前,在視頻監(jiān)控領(lǐng)域,監(jiān)控攝像頭已越來越多地遍布在大小城市的每個街頭,晝夜不停地監(jiān)控和錄像。其在改善社會治安的同時,也產(chǎn)生了大量的視頻信息,對于這些視頻信息的處理便意味著將耗費大量的人力、物力、時間和成本,從而使目前的視頻監(jiān)控面臨著深度應(yīng)用的巨大挑戰(zhàn)。
      [0003]其中,其深度應(yīng)用瓶頸之一便在于視頻信息如何高效率的提取,以及如何同其他信息系統(tǒng)進行標準數(shù)據(jù)交換、互聯(lián)互通及語義互操作?;诖?,現(xiàn)有技術(shù)中提出的用以解決這一問題的核心技術(shù)即為視頻結(jié)構(gòu)化描述技術(shù)。其用視頻結(jié)構(gòu)化描述技術(shù)改造傳統(tǒng)的視頻監(jiān)控系統(tǒng),使之形成新一代的、智慧化的、語義化的視頻監(jiān)控系統(tǒng)。
      [0004]目前視頻結(jié)構(gòu)化處理流程主要包括:
      [0005]步驟1、建立背景模型,檢測出運動目標前景;
      [0006]步驟2、去除陰影等干擾;
      [0007]步驟3、多目標跟蹤;
      [0008]步驟4、目標分類(例如,人或車);
      [0009]步驟5、提取人和車的一些結(jié)構(gòu)化描述信息。
      [0010]理論上,采用這類算法流程進行視頻結(jié)構(gòu)化處理也不會產(chǎn)生問題。但在實際應(yīng)用當中,當目標粘連在一起時,比如兩個人粘連在一起時,此時基于該算法流程則無法提取關(guān)于人的描述信息。又或者,在某些情形之下,由于強陰影很難去除干凈,當陰影等干擾沒有去除干凈時,采用該算法流程會導致目標的描述產(chǎn)生偏差。

      【發(fā)明內(nèi)容】

      [0011]基于此,本發(fā)明實施例的目的在于提供一種視頻結(jié)構(gòu)化描述中的行人定位方法及其裝置。
      [0012]為了達到本發(fā)明的目的,本發(fā)明采用以下技術(shù)方案實現(xiàn):
      [0013]一種視頻結(jié)構(gòu)化描述中的行人定位方法,其包括:
      [0014]訓練行人識別器,以及依據(jù)攝像機投影模型建立圖像坐標系與世界坐標系之間的映射關(guān)系;
      [0015]基于多高斯模型的背景建模得到運動的前景塊,并對每一個運動目標進行跟蹤;
      [0016]對具有跟蹤穩(wěn)定的目標的前景塊提取每個行人的頭部頂點坐標;
      [0017]依據(jù)所述映射關(guān)系計算所述每個行人的頭部頂點坐標在圖像坐標系下的行人識別窗口大??;
      [0018]對于每一個行人識別窗口,依據(jù)所述行人識別器進行基于局部梯度直方圖HOG特征的adaboost行人檢測處理,以此定位行人的位置。
      [0019]優(yōu)選地,訓練行人識別器的步驟包括:
      [0020]采集大量的各種背景和光照條件下的行人和非行人樣本;
      [0021]計算每一個樣本的局部梯度直方圖特征;
      [0022]依據(jù)計算出的樣本的局部梯度直方圖特征,采用基于開源發(fā)行的跨平臺計算機視覺庫opencv自帶的adaboost訓練器訓練出行人識別器。
      [0023]優(yōu)選地,依據(jù)攝像機投影模型建立圖像坐標系與世界坐標系之間的映射關(guān)系的方法為:
      [0024]基于小孔成像模型,依據(jù)攝像機的安裝高度、俯視角以及視角建立圖像坐標系和世界坐標系的映射關(guān)系。
      [0025]優(yōu)選地,對具有跟蹤穩(wěn)定的目標的前景塊,當所述目標的被跟蹤次數(shù)大于第一門限T1、其軌跡在最近第二門限T2幀內(nèi),并且與運動方向垂直的方向上的均方差小于第三門限σ時,觸發(fā)后續(xù)的行人定位步驟。
      [0026]優(yōu)選地,提取行人的頭部頂點坐標的步驟包括:
      [0027]對于具有跟蹤穩(wěn)定的目標的前景塊,在圖像坐標系的水平軸上投影并生成投影直方圖;
      [0028]在所述投影直方圖上以預設(shè)的一維平滑窗口進行平滑并進行濾波處理,獲取凸出的位置作為潛在的行人水平坐標;
      [0029]對提取出的每一個潛在的行人水平坐標,獲取其在圖像坐標系的垂直軸上的最高點作為潛在的行人頭頂垂直坐標;
      [0030]以及,依據(jù)所述獲得的潛在的行人水平坐標以及的行人頭頂垂直坐標得到行人的頭部頂點坐標。
      [0031]一種視頻結(jié)構(gòu)化描述中的行人定位裝置,其包括:
      [0032]訓練模塊,用于訓練行人識別器;
      [0033]配置模塊,用于依據(jù)攝像機投影模型建立圖像坐標系與世界坐標系之間的映射關(guān)系;
      [0034]第一提取模塊,用于基于多高斯模型的背景建模得到運動的前景塊;
      [0035]跟蹤模塊,用于對每一個運動目標進行跟蹤;
      [0036]第二提取模塊,用于對具有跟蹤穩(wěn)定的目標的前景塊提取每個行人的頭部頂點坐標;
      [0037]計算模塊,用于依據(jù)所述映射關(guān)系計算所述每個行人的頭部頂點坐標在圖像坐標系下的行人識別窗口大小;
      [0038]定位模塊,用于對于每一個行人識別窗口,依據(jù)所述行人識別器進行基于局部梯度直方圖HOG特征的adaboost行人檢測處理,以此定位行人的位置。
      [0039]優(yōu)選地,所述訓練模塊包括:
      [0040]采集單元,用于采集大量的各種背景和光照條件下的行人和非行人樣本;
      [0041]計算單元,用于計算每一個樣本的局部梯度直方圖特征;
      [0042]訓練單元,用于依據(jù)計算出的樣本的局部梯度直方圖特征,采用基于開源發(fā)行的跨平臺計算機視覺庫opencv自帶的adaboost訓練器訓練出行人識別器。
      [0043]優(yōu)選地,配置模塊依據(jù)攝像機投影模型建立圖像坐標系與世界坐標系之間的映射關(guān)系的方法為:
      [0044]基于小孔成像模型,依據(jù)攝像機的安裝高度、俯視角以及視角建立圖像坐標系和世界坐標系的映射關(guān)系。
      [0045]優(yōu)選地,所述的視頻結(jié)構(gòu)化描述中的行人定位裝置還包括:
      [0046]判斷模塊,對具有跟蹤穩(wěn)定的目標的前景塊,用于當所述目標的被跟蹤次數(shù)大于第一門限T1、其軌跡在最近第二門限T2幀內(nèi),并且與運動方向垂直的方向上的均方差小于第三門限σ時,向第二提取模塊發(fā)送行人定位觸發(fā)命令,所述第二提取模塊據(jù)此對具有跟蹤穩(wěn)定的目標的前景塊提取每個行人的頭部頂點坐標。
      [0047]優(yōu)選地,所述第二提取模塊包括:
      [0048]投影處理單元,用于對于具有跟蹤穩(wěn)定的目標的前景塊,在圖像坐標系的水平軸上投影并生成投影直方圖;
      [0049]水平坐標獲取單元;用于在所述投影直方圖上以預設(shè)的一維平滑窗口進行平滑并進行濾波處理,獲取凸出的位置作為潛在的行人水平坐標;
      [0050]垂直坐標獲取單元,用于對提取出的每一個潛在的行人水平坐標,獲取其在圖像坐標系的垂直軸上的最高點作為潛在的行人頭頂垂直坐標;
      [0051]以及,行人頭部頂點坐標獲取單元,用于依據(jù)所述獲得的潛在的行人水平坐標以及的行人頭頂垂直坐標得到行人的頭部頂點坐標。
      [0052]采用本發(fā)明,在不明顯增加運算量的情況下,能夠?qū)崿F(xiàn)在有陰影等干擾或者多個目標粘連的情形下的對視頻結(jié)構(gòu)化描述中的行人精確定位,有效地提高了視頻結(jié)構(gòu)化描述的質(zhì)量。
      【附圖說明】
      [0053]圖1是本發(fā)明實施例提供的視頻結(jié)構(gòu)化描述中的行人定位方法流程示意圖;
      [0054]圖2是本發(fā)明實施例中小孔模型示意圖;
      [0055]圖3是本發(fā)明實施例中小孔模型垂直截面圖;
      [0056]圖4是本發(fā)明實施例中具有運動目標的前景示意圖;
      [0057]圖5是本發(fā)明實施例中對圖4所示的前景圖進行行人定位后的效果圖;
      [0058]圖6是本發(fā)明實施例提供的視頻結(jié)構(gòu)化描述中的行人定位裝置結(jié)構(gòu)示意圖。
      [0059]本發(fā)明目的的實現(xiàn)、功能特點及優(yōu)異效果,下面將結(jié)合具體實施例以及附圖做進一步的說明。
      【具體實施方式】
      [0060]下面結(jié)合附圖和具體實施例對本發(fā)明所述技術(shù)方案作進一步的詳細描述,以使本領(lǐng)域的技術(shù)人員可以更好的理解本發(fā)明并能予以實施,但所舉實施例不作為對本發(fā)明的限定。
      [0061]如圖1所示,本發(fā)明實施例提供的一種視頻結(jié)構(gòu)化描述中的行人定位方法,其包括如下步驟:
      [0062]S10、訓練行人識別器,以及依據(jù)攝像機投影模型建立圖像坐標系與世界坐標系之間的映射關(guān)系;
      [0063]S20、基于多高斯模型的背景建模得到運動的前景塊,并對每一個運動目標進行跟蹤;
      [0064]S30、對具有跟蹤穩(wěn)定的目標的前景塊提取每個行人的頭部頂點坐標;
      [0065]S40、依據(jù)所述映射關(guān)系計算所述每個行人的頭部頂點坐標在圖像坐標系下的行人識別窗口大??;
      [0066]S50、對于每一個行人識別窗口,依據(jù)所述行人識別器進行基于局部梯度直方圖HOG特征的adaboost行人檢測處理,以此定位行人的位置。
      [0067]本實施例中,訓練行人識別器的步驟包括:
      [0068]S101、采集大量的各種背景和光照條件下的行人和非行人樣本,例如,本實施例中共收集正樣本3582個,負樣本5876個;
      [0069]S102、計算每一個樣本的局部梯度直方圖特征,例如本實施例中,將每個特征窗口以窗口長寬的1/4為大小,1/16為步長劃分成105個特征子量,每個特征子量平均分成4個細胞單元,對于每個像素的梯度,做一個9個通道的量化,由此形成3780維特征向量;
      [0070]S103、依據(jù)計算出的樣本的局部梯度直方圖特征,采用opencv (Open SourceComputer Vis1n Library,基于開源發(fā)行的跨平臺計算機視覺庫)自帶的adaboost訓練器訓練出行人識別器。
      [0071]本實施例中,依據(jù)攝像機投影模型建立圖像坐標系與世界坐標系之間的映射關(guān)系的方法為:
      [0072]參考圖2以及圖3所示,基于小孔成像模型,依據(jù)攝像機的安裝高度、俯視角以及視角建立圖像坐標系和世界坐標系的映射關(guān)系。
      [0073]其中,圖2為小孔模型圖。其中平面AB⑶為對應(yīng)于二維圖像的真實場景水平面,O點為攝像機鏡頭中心,I點為O點的水平面投影點,OG為攝像機光軸,G點為攝像機光軸與水平面的交點,Z KOG為水平視角,Z EOG為垂直視角,Z GOI為俯視角。
      [0074]圖3為小孔模型垂直截面圖。其中,直線EI為模型垂直截面與水平面的交線,直線E’ F’為模型垂直截面與像平面的交線,線段PN為行人,MN即為行人在水平面的投影。
      [0075]其中,所述俯視角是指攝像機安裝的角度,視角是鏡頭本身的角度,包括水平視角以及垂直視角。
      [0076]對于所述步驟S20,在某些實施例中,還可以先基于多高斯模型的背景建模,然后進行陰影去除,最終得到運動的前景塊。
      [0077]在所述步驟S20中,運動目標跟蹤方法為本領(lǐng)域的技術(shù)人員所共知的現(xiàn)有技術(shù),本文對此不做細述。
      [0078]在所述步驟S30中,判斷前景快的目標是否跟蹤穩(wěn)定的判別方法為:如果被跟蹤目標在最近一段時間內(nèi)軌跡保持平穩(wěn),則認為該目標處于穩(wěn)定狀態(tài)。
      [
      當前第1頁1 2 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1