本發(fā)明屬于智能交通領(lǐng)域,更具體而言,本發(fā)明涉及一種基于微波和視頻數(shù)據(jù)融合的交通檢測方法及裝置。
背景技術(shù):
數(shù)據(jù)融合主要有數(shù)據(jù)級、特征級和決策級融合三種方式。數(shù)據(jù)級融合是指在融合算法中,要求進(jìn)行融合的傳感器數(shù)據(jù)具有精確到一個(gè)像素的匹配精度的任何信息的融合;特征級融合是指從各個(gè)傳感器提供的原始數(shù)據(jù)中進(jìn)行特征提取,然后融合這些特征;決策級融合是指在融合之前,各傳感器數(shù)據(jù)源都經(jīng)過變換并獲得獨(dú)立的身份估計(jì)。
數(shù)據(jù)融合過程包括多傳感器的目標(biāo)檢測、數(shù)據(jù)關(guān)聯(lián)、跟蹤與識別、情況估計(jì)與合并。數(shù)據(jù)融合是對多個(gè)傳感器和信息源所提供的關(guān)于某一環(huán)境特征的不完整信息加以綜合,以形成相對完整、一致的感知描述,從而實(shí)現(xiàn)更加準(zhǔn)確的識別判斷功能。通過融合得到比單獨(dú)的各個(gè)輸入數(shù)據(jù)更多的信息,由于更多傳感器的共同作用,使系統(tǒng)的有效性得以增強(qiáng)。
多傳感器系統(tǒng)設(shè)備的設(shè)計(jì)和生產(chǎn)力提高,使得傳感器性能大大提高,如何處理數(shù)量龐大,種類繁多的信息成為多傳感器系統(tǒng)首先要考慮的問題。特別是在信息具有不確定性的情況下,相對于單傳感器數(shù)據(jù)處理只是對單一傳感器所獲得數(shù)據(jù)或信息進(jìn)行的處理,可能存在部分不完整或者不可靠的信息,多傳感器數(shù)據(jù)融合能有效地綜合利用多傳感器信息,從而可以在很大程度上獲得被探測目標(biāo)和環(huán)境的更加精確、完整的信息和一致性的描述或理解。
微波傳感器是一種用于全天候監(jiān)測交通狀況的雷達(dá)裝置。它可以測量微波覆蓋區(qū)域內(nèi)目標(biāo)的距離,方位角,速度,大小等,能提供目標(biāo)完整的位置信息和多普勒信息,通過這些測量來實(shí)現(xiàn)對多車道的車輛和行人的檢測。在進(jìn)行檢測時(shí),微波傳感器接收到反射的回波信號,對回波信號進(jìn)行背景抑制,提取有用的信號,能夠檢測出交通流信息,在目標(biāo)探測和跟蹤方面發(fā)揮了重要作用。缺點(diǎn)是不能像視頻那樣可以直觀的看到目標(biāo)的運(yùn)動(dòng)狀態(tài),及車輛的車牌號、顏色等信息的判斷。
視頻車輛傳感器是采用攝像機(jī)作為視頻傳感器,是一種基于視頻圖像分析和計(jì)算機(jī)視覺技術(shù)對路面運(yùn)行車輛進(jìn)行檢測分析的集成系統(tǒng),利用圖像工程學(xué)的方法實(shí)時(shí)監(jiān)測分析輸入的交通圖像,能夠檢測交通動(dòng)態(tài)行為和各種交通數(shù)據(jù),包括交通流量、車型分類、占有率、車速、排隊(duì)長度、車牌號、車身顏色等。缺點(diǎn)是受現(xiàn)場照明條件限制,目前圖像處理的實(shí)時(shí)性較差,檢測精度受到整個(gè)系統(tǒng)軟硬件的限制。
技術(shù)實(shí)現(xiàn)要素:
本發(fā)明公開了一種基于微波和視頻數(shù)據(jù)融合的交通檢測方法及裝置,該方法和裝置能夠更準(zhǔn)確地監(jiān)測交通行為狀態(tài)和統(tǒng)計(jì)交通流信息,從而實(shí)現(xiàn)了大交通系統(tǒng)的動(dòng)態(tài)化優(yōu)化運(yùn)行,有效地滿足了公眾不斷擴(kuò)大的交通需求。
本發(fā)明所采用的技術(shù)方案是:
一種基于微波和視頻數(shù)據(jù)融合的交通檢測裝置,所述裝置包括視頻傳感器、微波傳感器、A/D轉(zhuǎn)換模塊、處理器模塊、網(wǎng)絡(luò)通信模塊、交通流參數(shù)數(shù)據(jù)融合模塊、交通流管理平臺、目標(biāo)跟蹤模塊、交通事件與信息管理平臺;
所述視頻傳感器和所述微波傳感器分別與所述A/D轉(zhuǎn)換模塊相連接,視頻傳感器和微波傳感器輸出的不同特征的非電量信號,然后經(jīng)過所述A/D轉(zhuǎn)換模塊將它們轉(zhuǎn)換為能由計(jì)算機(jī)處理的數(shù)字量;所述A/D轉(zhuǎn)換模塊與所述處理器模塊連接,所述處理器模塊與所述網(wǎng)絡(luò)通信模塊連接,所述處理器模塊對經(jīng)由所述A/D轉(zhuǎn)換模塊處理轉(zhuǎn)換成數(shù)字量的數(shù)據(jù)進(jìn)行處理,濾除一些異常數(shù)據(jù)以便得到有用信號,有用信號再由所述網(wǎng)絡(luò)通信模塊進(jìn)行傳輸;
所述網(wǎng)絡(luò)通信模塊分別與所述交通流參數(shù)數(shù)據(jù)融合模塊、所述目標(biāo)跟蹤模塊相連接,所述網(wǎng)絡(luò)通信模塊將有用信號傳輸給所述交通流參數(shù)數(shù)據(jù)融合模塊、所述目標(biāo)跟蹤模塊;
所述交通流參數(shù)數(shù)據(jù)融合模塊和所述交通流管理平臺連接,所述交通流參數(shù)數(shù)據(jù)融合模塊對有用信號進(jìn)行時(shí)空統(tǒng)一、特征提取,并按一定的規(guī)則對特征量進(jìn)行數(shù)據(jù)融合計(jì)算,最后將融合結(jié)果輸出給所述交通流管理平臺;
所述目標(biāo)跟蹤模塊和交通事件與信息管理平臺連接,所述目標(biāo)跟蹤模塊對有用信號進(jìn)行時(shí)空統(tǒng)一、特征提取,并按一定的規(guī)則對特征量進(jìn)行數(shù)據(jù)融合計(jì)算,最后將融合結(jié)果輸出給所述信息管理平臺。
一種基于微波和視頻數(shù)據(jù)融合的交通檢測方法,包含以下步驟:
第一步:檢測,兩組傳感器檢測區(qū)域內(nèi)分別進(jìn)行背景噪聲抑制,輸出交通流量、平均速度、占有率、排隊(duì)長度及其他即時(shí)信息;
第二步:原始數(shù)據(jù)預(yù)處理,對輸入的多組傳感器數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化并進(jìn)行預(yù)處理,滿足后續(xù)估計(jì)及處理器模塊對計(jì)算量和計(jì)算順序的要求;
對于異常數(shù)據(jù)預(yù)處理方法采用格拉布斯統(tǒng)計(jì)方法;
第三步:時(shí)空校準(zhǔn),校準(zhǔn)統(tǒng)一各傳感器的時(shí)間和空間參考點(diǎn),在時(shí)間上對齊到同一時(shí)間基準(zhǔn)、在空間上轉(zhuǎn)換到同一坐標(biāo)系,建立坐標(biāo)對應(yīng)關(guān)系,使得處理后的結(jié)果好像是數(shù)據(jù)融合處理中心站所采集的一樣;若各傳感器在時(shí)間和空間上是獨(dú)立地異步工作,則必須進(jìn)行時(shí)間搬移和坐標(biāo)變換,以形成融合所需的統(tǒng)一的時(shí)間和空間參考點(diǎn);通過對單個(gè)傳感器獲得的位置與身份類別的估計(jì)信息進(jìn)行融合,獲得更加準(zhǔn)確的目標(biāo)位置、狀態(tài)與身份類別的估計(jì);
第四步:基礎(chǔ)動(dòng)態(tài)交通參數(shù)融合,把來自視頻傳感器和微波傳感器能夠同時(shí)檢測路段上的交通流量、平均速度、占有率、排隊(duì)長度等基礎(chǔ)交通參數(shù)進(jìn)行融合處理,得出更準(zhǔn)確可靠的交通流參數(shù);同時(shí)這一層次的融合結(jié)果是下一個(gè)融合系統(tǒng)的輸入;
第五步:數(shù)據(jù)關(guān)聯(lián),判別不同時(shí)間空間的數(shù)據(jù)是否來自同一目標(biāo),雷達(dá)與視頻目標(biāo)進(jìn)行匹配,能成功匹配確定為真實(shí)的目標(biāo),按設(shè)定方式處理,不能匹配的目標(biāo),認(rèn)為不能確定的目標(biāo),不能排除可能性;以目標(biāo)的距離、方位、相對速度作為參數(shù),計(jì)算雷達(dá)目標(biāo)與視頻目標(biāo)的關(guān)聯(lián)度值,當(dāng)關(guān)聯(lián)度值大于設(shè)定的閾值時(shí),認(rèn)為匹配;對同一傳感器相繼測報(bào)的相關(guān)數(shù)據(jù)進(jìn)行綜合及狀態(tài)估計(jì),并參照其他信息源的測報(bào)對數(shù)據(jù)進(jìn)行修改驗(yàn)證把各個(gè)傳感器傳送來的點(diǎn)跡進(jìn)行關(guān)聯(lián),保持對目標(biāo)進(jìn)行連續(xù)跟蹤;
第六步:目標(biāo)識別與跟蹤;根據(jù)不同傳感器測得的某一目標(biāo)特征形成一個(gè)N維的特征向量,每一維代表目標(biāo)的一個(gè)獨(dú)立特征,與一致的特征進(jìn)行比較,從而確定目標(biāo)的類別。每次掃描結(jié)束就將新數(shù)據(jù)集與原有的數(shù)據(jù)進(jìn)行融合,根據(jù)傳感器的觀測值估計(jì)目標(biāo)參數(shù),并用這些估計(jì)預(yù)測下一次掃描中目標(biāo)的位置;
第七步:交通行為估計(jì);雷達(dá)檢測到目標(biāo),輸出三維坐標(biāo),控制視頻監(jiān)控輸出圖像,根據(jù)視頻坐標(biāo)模型以及雷達(dá)與視頻的位置關(guān)系,以A、B兩點(diǎn)最小距離值d作為匹配條件,使得兩個(gè)傳感器探測到的同一目標(biāo)物的信息對應(yīng),以從同步圖像中匹配識別出為同一目標(biāo)。將所有目標(biāo)的數(shù)據(jù)集與先前確定的可能態(tài)勢的行為模式相比較,以確定哪種行為模式與監(jiān)視區(qū)域內(nèi)所有目標(biāo)的狀態(tài)最匹配,將這些信息同一保存到交通信息平臺。
優(yōu)選地,在所述第二步中,所述對于異常數(shù)據(jù)預(yù)處理方法用格拉布斯統(tǒng)計(jì)方法具體如下:
計(jì)算輸出的各檢測數(shù)據(jù)Zi的均值
計(jì)算標(biāo)準(zhǔn)差
計(jì)算格拉布斯統(tǒng)計(jì)量
給定根據(jù)數(shù)據(jù)量n,顯著水平a=0.05,通過查表法找出格拉布斯統(tǒng)計(jì)量的臨界值T(n,a),與T進(jìn)行比較;按照P[T≥T(n,a)]=a為小概率事件,舍棄T≥T(n,a)的數(shù)據(jù)。
優(yōu)選地,在所述第三步中,坐標(biāo)對應(yīng)關(guān)系的建立步驟如下:
首先,利用標(biāo)定技術(shù)計(jì)算視頻傳感器的內(nèi)部參數(shù),建立視頻傳感器坐標(biāo)模型;
其次,根據(jù)視頻傳感器坐標(biāo)模型、以及微波傳感器與視頻傳感器之間的位置關(guān)系,建立世界坐標(biāo)系下微波傳感器所監(jiān)測到的目標(biāo)在視頻傳感器所采集的圖像平面中的坐標(biāo)對應(yīng)關(guān)系;
最后,根據(jù)坐標(biāo)對應(yīng)關(guān)系就可以實(shí)現(xiàn)微波傳感器的信息與視頻信息進(jìn)行融合,實(shí)現(xiàn)微波傳感器探測的3D世界坐標(biāo)轉(zhuǎn)換成視頻圖像中對應(yīng)的2D圖像坐標(biāo)p′(u′,v′),以充分利用微波傳感器監(jiān)測到的位置信息對應(yīng)至視頻圖像中。
優(yōu)選地,在所述第四步中,對于同一觀測對象,不同傳感器輸出的結(jié)果會有所不同,在沒有先驗(yàn)知識的情況下,采取以下方法來進(jìn)行數(shù)據(jù)融合:
采用自適應(yīng)最優(yōu)加權(quán)融合模型,設(shè)兩個(gè)傳感器的交通流數(shù)據(jù)方差分別為σ1、σ2,所要估計(jì)的真值為X,各個(gè)傳感器的測量值分別為X1、X2,他們彼此互相獨(dú)立,并且是X的無偏估計(jì);各個(gè)傳感器的加權(quán)因子分別為W1、W2,則融合后的測量值為:
其中
該方法可以不需要知道這兩個(gè)檢測測量數(shù)據(jù)的任何先驗(yàn)知識,只是應(yīng)用多傳感器提供的檢測數(shù)據(jù),就可以融合出均值誤差最小的數(shù)據(jù)融合值。
優(yōu)選地,所述第七步中采用模糊綜合決策模型構(gòu)造一個(gè)交通事件識別算法,步驟如下:
A1、交通行為估計(jì),建立模型庫,對通常出現(xiàn)的交通異常狀態(tài)建模,便于將測得的行為模式與數(shù)據(jù)庫中的模式匹配;
A2、實(shí)時(shí)監(jiān)控路面狀態(tài),通過微波傳感器2和視頻傳感器1進(jìn)行實(shí)時(shí)監(jiān)控;
A3、通過雷達(dá)在監(jiān)測范圍內(nèi)發(fā)生事件情況的判斷,若為否,則返回A2繼續(xù)進(jìn)行實(shí)時(shí)監(jiān)控路面狀態(tài),若為是,則進(jìn)入下一步驟;
A4、輸出事件目標(biāo)的三維坐標(biāo),視頻采集當(dāng)前的同步圖像;雷達(dá)和視頻信息融合,將三維坐標(biāo)映射到同步圖像中的雷達(dá)探測坐標(biāo),發(fā)出預(yù)警信息,并通過視頻傳感器1進(jìn)行視頻采集當(dāng)前的同步圖像;
A5、雷達(dá)和視頻信息融合,將三維坐標(biāo)映射得到同步圖像中的雷達(dá)探測坐標(biāo);
A6、在世界坐標(biāo)系中,建立雷達(dá)探測坐標(biāo)與圖像檢測目標(biāo)的匹配關(guān)系,從同步圖像中識別出事件信息;
A7、輸出交通事件類型及事件車輛的圖片、車牌號等信息至交通事件與信息管理管理平臺。
采用上述技術(shù)方案后,本發(fā)明中視頻和雷達(dá)組合使用構(gòu)成雷達(dá)-視頻多傳感器系統(tǒng),利用信息互補(bǔ),通過數(shù)據(jù)融合技術(shù),成為相互獨(dú)立又彼此補(bǔ)充的探測跟蹤手段,能夠提高系統(tǒng)可靠性可以給出對目標(biāo)位置的精確估計(jì);通過各個(gè)傳感器檢測的交通流信息進(jìn)行融合處理,得到更為精確地?cái)?shù)據(jù),為有關(guān)部門提供強(qiáng)有力的參數(shù);通過以雷達(dá)檢測為主視頻取證為輔,對交通行為狀態(tài)進(jìn)行估計(jì),對發(fā)生的事件信息進(jìn)行告警抓拍取證;本發(fā)明提出基于微波與視頻數(shù)據(jù)的融合方法,通過對這兩種傳感器的原始數(shù)據(jù)進(jìn)行預(yù)處理之后,經(jīng)過時(shí)空統(tǒng)一,得出標(biāo)準(zhǔn)化的特征信息;在數(shù)據(jù)融合模塊,通過使用基于權(quán)值的決策級數(shù)據(jù)融合方法,輸出更為精確的交通流信息;微波傳感器檢測到數(shù)據(jù)庫中錄入的某些交通行為后,控制視頻傳感器進(jìn)行拍照,再進(jìn)行分析與數(shù)據(jù)庫是否匹配,進(jìn)行報(bào)警,降低了虛警率,減少人力物力,真正做到智能化檢測。
附圖說明
圖1是本發(fā)明基于微波和視頻數(shù)據(jù)融合的交通檢測裝置的示意框圖;
圖2是微波和視頻數(shù)據(jù)融合方法的示意框圖;
圖3是數(shù)據(jù)預(yù)處理方法的示意框圖;
圖4是基于微波與視頻數(shù)據(jù)融合的交通行為估計(jì)方法的示框意圖。
具體實(shí)施方式
為使本發(fā)明實(shí)施例的目的、技術(shù)方案和優(yōu)點(diǎn)更加清楚,下面將結(jié)合本發(fā)明實(shí)施例中的附圖,對本發(fā)明實(shí)施例中的技術(shù)方案進(jìn)行清楚、完整地描述。以下實(shí)施例僅用于更加清楚地說明本發(fā)明的技術(shù)方案,而不能以此來限制本發(fā)明的保護(hù)范圍。
一種基于微波和視頻數(shù)據(jù)融合的交通檢測裝置,如圖1所示,所述裝置包括視頻傳感器1、微波傳感器2、A/D轉(zhuǎn)換模塊3、處理器模塊4、網(wǎng)絡(luò)通信模塊5、交通流參數(shù)數(shù)據(jù)融合模塊6、交通流管理平臺7、目標(biāo)跟蹤模塊8、交通事件與信息管理平臺9,視頻傳感器1和微波傳感器2分別與A/D轉(zhuǎn)換模塊3相連接,視頻傳感器1和微波傳感器2輸出的不同特征的非電量信號,然后經(jīng)過A/D轉(zhuǎn)換模塊3將它們轉(zhuǎn)換為能由計(jì)算機(jī)處理的數(shù)字量;A/D轉(zhuǎn)換模塊3與處理器模塊4連接,處理器模塊4與網(wǎng)絡(luò)通信模塊5連接,處理器模塊4對經(jīng)由A/D轉(zhuǎn)換模塊3處理轉(zhuǎn)換成數(shù)字量的數(shù)據(jù)進(jìn)行處理,濾除一些異常數(shù)據(jù)以便得到有用信號,有用信號再由網(wǎng)絡(luò)通信模塊5進(jìn)行傳輸;網(wǎng)絡(luò)通信模塊5分別與交通流參數(shù)數(shù)據(jù)融合模塊6、目標(biāo)跟蹤模塊8相連接,網(wǎng)絡(luò)通信模塊5將有用信號傳輸給交通流參數(shù)數(shù)據(jù)融合模塊6、目標(biāo)跟蹤模塊8;交通流參數(shù)數(shù)據(jù)融合模塊6和交通流管理平臺7連接,交通流參數(shù)數(shù)據(jù)融合模塊6對有用信號進(jìn)行時(shí)空統(tǒng)一、特征提取,并按一定的規(guī)則對特征量進(jìn)行數(shù)據(jù)融合計(jì)算,最后將融合結(jié)果輸出給交通流管理平臺7;目標(biāo)跟蹤模塊8和交通事件與信息管理平臺9連接,目標(biāo)跟蹤模塊8對有用信號進(jìn)行時(shí)空統(tǒng)一、特征提取,并按一定的規(guī)則對特征量進(jìn)行數(shù)據(jù)融合計(jì)算,最后將融合結(jié)果輸出給信息管理平臺。
如圖2圖4所示,下面對基于微波和視頻數(shù)據(jù)融合的交通檢測方法進(jìn)行說明,一種基于微波和視頻數(shù)據(jù)融合的交通檢測方法包括如圖2所示的流程,如下:
第一步:檢測,兩組傳感器檢測區(qū)域內(nèi)分別進(jìn)行背景噪聲抑制,輸出交通流量、平均速度、占有率、排隊(duì)長度及其他即時(shí)信息;
第二步:原始數(shù)據(jù)預(yù)處理,對輸入的多組傳感器數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化并進(jìn)行預(yù)處理,滿足后續(xù)估計(jì)及處理器模塊4對計(jì)算量和計(jì)算順序的要求;
對于異常數(shù)據(jù)預(yù)處理方法用格拉布斯統(tǒng)計(jì)方法;
具體計(jì)算方法如下:
計(jì)算輸出的各檢測數(shù)據(jù)Zi的均值
計(jì)算標(biāo)準(zhǔn)差
計(jì)算格拉布斯統(tǒng)計(jì)量
給定根據(jù)數(shù)據(jù)量n,顯著水平a=0.05,通過查表法找出格拉布斯統(tǒng)計(jì)量的臨界值T(n,a),與T進(jìn)行比較;按照P[T≥T(n,a)]=a為小概率事件,舍棄T≥T(n,a)的數(shù)據(jù);
第三步:時(shí)空校準(zhǔn),校準(zhǔn)統(tǒng)一各傳感器的時(shí)間和空間參考點(diǎn),在時(shí)間上對齊到同一時(shí)間基準(zhǔn)、在空間上轉(zhuǎn)換到同一坐標(biāo)系,建立坐標(biāo)對應(yīng)關(guān)系,使得處理后的結(jié)果好像是數(shù)據(jù)融合處理中心站所采集的一樣;若各傳感器在時(shí)間和空間上是獨(dú)立地異步工作,則必須進(jìn)行時(shí)間搬移和坐標(biāo)變換,以形成融合所需的統(tǒng)一的時(shí)間和空間參考點(diǎn);通過對單個(gè)傳感器獲得的位置與身份類別的估計(jì)信息進(jìn)行融合,獲得更加準(zhǔn)確的目標(biāo)位置、狀態(tài)與身份類別的估計(jì);
坐標(biāo)對應(yīng)關(guān)系的建立步驟為:利用標(biāo)定技術(shù)計(jì)算視頻傳感器1的內(nèi)部參數(shù),建立視頻傳感器1坐標(biāo)模型;根據(jù)視頻傳感器1坐標(biāo)模型、以及微波傳感器2與視頻傳感器1之間的位置關(guān)系,建立世界坐標(biāo)系下微波傳感器2所監(jiān)測到的目標(biāo)在視頻傳感器1所采集的圖像平面中的坐標(biāo)對應(yīng)關(guān)系;最后根據(jù)坐標(biāo)對應(yīng)關(guān)系就可以實(shí)現(xiàn)微波傳感器2的信息與視頻信息進(jìn)行融合,實(shí)現(xiàn)微波傳感器2探測的3D世界坐標(biāo)轉(zhuǎn)換成視頻圖像中對應(yīng)的2D圖像坐標(biāo)p′(u′,v′),以充分利用微波傳感器2監(jiān)測到的位置信息對應(yīng)至視頻圖像中;
第四步:基礎(chǔ)動(dòng)態(tài)交通參數(shù)融合,把來自視頻傳感器1和微波傳感器2能夠同時(shí)檢測路段上的交通流量、平均速度、占有率、排隊(duì)長度等基礎(chǔ)交通參數(shù)進(jìn)行融合處理,得出更準(zhǔn)確可靠的交通流參數(shù)。同時(shí)這一層次的融合結(jié)果是下一個(gè)融合系統(tǒng)的輸入,這種多層次的融合系統(tǒng)結(jié)構(gòu)設(shè)計(jì),有利于實(shí)現(xiàn)多主體協(xié)同信息處理,可以分散各處理中心的處理負(fù)擔(dān),有利于提高系統(tǒng)效率。
對于同一觀測對象,不同傳感器輸出的結(jié)果會有所不同,在沒有先驗(yàn)知識的情況下,采取以下方法來進(jìn)行數(shù)據(jù)融合,使得提供的檢測數(shù)據(jù)能夠均值誤差最小;
采用自適應(yīng)最優(yōu)加權(quán)融合模型,設(shè)兩個(gè)傳感器的交通流數(shù)據(jù)方差分別為σ1、σ2,所要估計(jì)的真值為X,各個(gè)傳感器的測量值分別為X1、X2,他們彼此互相獨(dú)立,并且是X的無偏估計(jì);各個(gè)傳感器的加權(quán)因子分別為W1、W2,則融合后的測量值為:
其中
該方法可以不需要知道這兩個(gè)檢測測量數(shù)據(jù)的任何先驗(yàn)知識,只是應(yīng)用多傳感器提供的檢測數(shù)據(jù),就可以融合出均值誤差最小的數(shù)據(jù)融合值;
第五步:數(shù)據(jù)關(guān)聯(lián),判別不同時(shí)間空間的數(shù)據(jù)是否來自同一目標(biāo),雷達(dá)與視頻目標(biāo)進(jìn)行匹配,能成功匹配確定為真實(shí)的目標(biāo),按設(shè)定方式處理,不能匹配的目標(biāo),認(rèn)為不能確定的目標(biāo),不能排除可能性;以目標(biāo)的距離、方位、相對速度作為參數(shù),計(jì)算雷達(dá)目標(biāo)與視頻目標(biāo)的關(guān)聯(lián)度值,當(dāng)關(guān)聯(lián)度值大于設(shè)定的閾值時(shí),認(rèn)為匹配;對同一傳感器相繼測報(bào)的相關(guān)數(shù)據(jù)進(jìn)行綜合及狀態(tài)估計(jì),并參照其他信息源的測報(bào)對數(shù)據(jù)進(jìn)行修改驗(yàn)證把各個(gè)傳感器傳送來的點(diǎn)跡進(jìn)行關(guān)聯(lián),保持對目標(biāo)進(jìn)行連續(xù)跟蹤;
第六步:目標(biāo)識別與跟蹤;根據(jù)不同傳感器測得的某一目標(biāo)特征形成一個(gè)N維的特征向量,每一維代表目標(biāo)的一個(gè)獨(dú)立特征,與一致的特征進(jìn)行比較,從而確定目標(biāo)的類別。每次掃描結(jié)束就將新數(shù)據(jù)集與原有的數(shù)據(jù)進(jìn)行融合,根據(jù)傳感器的觀測值估計(jì)目標(biāo)參數(shù),并用這些估計(jì)預(yù)測下一次掃描中目標(biāo)的位置;
第七步:交通行為估計(jì);雷達(dá)檢測到目標(biāo),輸出三維坐標(biāo),控制視頻監(jiān)控輸出圖像,根據(jù)視頻坐標(biāo)模型以及雷達(dá)與視頻的位置關(guān)系,以A、B兩點(diǎn)最小距離值d作為匹配條件,使得兩個(gè)傳感器探測到的同一目標(biāo)物的信息對應(yīng),以從同步圖像中匹配識別出為同一目標(biāo),將所有目標(biāo)的數(shù)據(jù)集與先前確定的可能態(tài)勢的行為模式相比較,以確定哪種行為模式與監(jiān)視區(qū)域內(nèi)所有目標(biāo)的狀態(tài)最匹配,將這些信息同一保存到交通信息平臺;
交通事件是指道路上偶發(fā)性事件如車輛交通事故、故障停車、交通堵塞等,這些事件發(fā)生時(shí)將會引起交通被阻斷,該處將變得相對擁擠,由第四步可以得出基礎(chǔ)的交通參數(shù)信息,當(dāng)占有率增加,速度降低,密度變大時(shí)需要判定是否存在事件,需要及時(shí)處理。本步驟是在前期分析融合后的交通流參數(shù),進(jìn)行論證是否存在異常交通事件;
在第七步中,采用模糊綜合決策模型構(gòu)造了一個(gè)交通行為識別方法,步驟如下:
A1、交通行為估計(jì),建立模型庫,對通常出現(xiàn)的交通異常狀態(tài)建模,便于將測得的行為模式與數(shù)據(jù)庫中的模式匹配;
A2、實(shí)時(shí)監(jiān)控路面狀態(tài),通過微波傳感器2和視頻傳感器1進(jìn)行實(shí)時(shí)監(jiān)控;
A3、通過雷達(dá)在監(jiān)測范圍內(nèi)發(fā)生事件情況的判斷,若為否,則返回A2繼續(xù)進(jìn)行實(shí)時(shí)監(jiān)控路面狀態(tài),若為是,則進(jìn)入下一步驟;
A4、輸出事件目標(biāo)的三維坐標(biāo),視頻采集當(dāng)前的同步圖像;雷達(dá)和視頻信息融合,將三維坐標(biāo)映射到同步圖像中的雷達(dá)探測坐標(biāo),發(fā)出預(yù)警信息,并通過視頻傳感器1進(jìn)行視頻采集當(dāng)前的同步圖像;
A5、雷達(dá)和視頻信息融合,將三維坐標(biāo)映射得到同步圖像中的雷達(dá)探測坐標(biāo);
A6、在世界坐標(biāo)系中,建立雷達(dá)探測坐標(biāo)與圖像檢測目標(biāo)的匹配關(guān)系,從同步圖像中識別出事件信息;
A7、輸出交通事件類型及事件車輛的圖片、車牌號等信息至交通事件與信息管理管理平臺9。
信息融合的優(yōu)越性可以說是運(yùn)算的穩(wěn)健性,擴(kuò)大空間和時(shí)間的覆蓋范圍,增加估計(jì)的可信度,改善檢測性能,改善空間分辯能力,充分利用多傳感器的資源和調(diào)度系統(tǒng),最大限度發(fā)揮資源的利用率并提高多傳感器系統(tǒng)的生存能力。
本發(fā)明運(yùn)用分層融合算法,在系統(tǒng)的預(yù)處理環(huán)節(jié)對異常數(shù)據(jù)進(jìn)行剔除,在交通參數(shù)采集環(huán)節(jié)及交通行為估計(jì)分別進(jìn)行數(shù)據(jù)融合,提高了系統(tǒng)的魯棒性。該技術(shù)融合了精確的多維信息,特別是在信息具有不確定性的情況下,相對于單傳感器數(shù)據(jù)處理只是對單一傳感器所獲得數(shù)據(jù)或信息進(jìn)行的處理,可能存在部分不完整或者不可靠的信息,多傳感器數(shù)據(jù)融合能有效地綜合利用多傳感器信息,從而可以在很大程度上獲得被探測目標(biāo)和環(huán)境的更加精確、完整的信息和一致性的描述或理解。
本發(fā)明中視頻和雷達(dá)組合使用構(gòu)成雷達(dá)視頻多傳感器系統(tǒng),利用信息互補(bǔ),通過數(shù)據(jù)融合技術(shù),成為相互獨(dú)立又彼此補(bǔ)充的探測跟蹤手段,能夠提高系統(tǒng)可靠性可以給出對目標(biāo)位置的精確估計(jì);通過各個(gè)傳感器檢測的交通流信息進(jìn)行融合處理,得到更為精確地?cái)?shù)據(jù),為有關(guān)部門提供強(qiáng)有力的參數(shù);通過以雷達(dá)檢測為主視頻取證為輔,對交通行為狀態(tài)進(jìn)行估計(jì),對發(fā)生的事件信息進(jìn)行告警抓拍取證;
本發(fā)明提出基于微波與視頻數(shù)據(jù)的融合方法,通過對這兩種傳感器的原始數(shù)據(jù)進(jìn)行預(yù)處理之后,經(jīng)過時(shí)空統(tǒng)一,得出標(biāo)準(zhǔn)化的特征信息;在數(shù)據(jù)融合模塊,通過使用基于權(quán)值的決策級數(shù)據(jù)融合方法,輸出更為精確的交通流信息;微波傳感器2檢測到數(shù)據(jù)庫中錄入的某些交通行為后,控制視頻傳感器1進(jìn)行拍照,再進(jìn)行分析與數(shù)據(jù)庫是否匹配,進(jìn)行報(bào)警,降低了虛警率,減少人力物力,真正做到智能化檢測。
最后應(yīng)說明的是:以上所述僅為本發(fā)明的優(yōu)選實(shí)施例而已,并不用于限制本發(fā)明,盡管參照前述實(shí)施例對本發(fā)明進(jìn)行了詳細(xì)的說明,對于本領(lǐng)域的技術(shù)人員來說,其依然可以對前述各實(shí)施例所記載的技術(shù)方案進(jìn)行修改,或者對其中部分技術(shù)特征進(jìn)行等同替換。凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。