国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種用于全方位視覺的目標跟蹤方法

      文檔序號:7746214閱讀:239來源:國知局
      專利名稱:一種用于全方位視覺的目標跟蹤方法
      一種用于全方位視覺的目標跟蹤方法
      技術領域
      本發(fā)明屬于機器人導航技術領域。特別是一種以人工智能技術實現(xiàn) 的以圖像目標為依據(jù)的決定機器人行動的智能視覺機器人技術。
      背景技術
      機器人是自動執(zhí)行特定工作的機器裝置。機器人可接受人預先設置的指令程序, 執(zhí)行各類擬人工作,是取代或是協(xié)助人類從事繁重、危險工作的最佳選擇,機器人在制造 業(yè)、建筑業(yè),安全監(jiān)查等諸多領域具有重要應用。伴隨著計算機技術的發(fā)展,機器人技術和應用也得到了迅速發(fā)展,技術應用也更 加廣泛,特別是具有類人類視覺的機器人具有很強的應用潛力和商業(yè)價值。魚眼鏡頭是全 方位目標跟蹤的技術關鍵,是機器人視覺實時導航系統(tǒng)中的關鍵部件。目前已有多種使用 魚眼鏡頭的實時全方位跟蹤算法,其中基于連續(xù)自適應均值漂移跟蹤算法已經(jīng)得到較好的 發(fā)展和應用,該算法在原有的均值漂移算法的基礎之上得到很好的改進和發(fā)展。經(jīng)實驗驗 證,該算法的運算量小、識別跟蹤速度快、魯棒性好,滿足目標跟蹤的實時性和準確性要求。 雖然該算法解決了視覺導航機器人的諸多問題,但該算法在應用中也存在缺陷。比如當被 跟蹤的目標移動出攝像的視野或是被其他物體全部遮擋時、當環(huán)境光照發(fā)生變化時,目標 跟蹤就有可能失敗。
      發(fā)明內容本發(fā)明目的是解決在復雜背景下當被跟蹤目標移出攝像的視野或是 被其他物體全部遮擋時、或當環(huán)境光照發(fā)生變化時目標跟蹤可能失敗的問題,提供一種用 于全方位視覺的目標跟蹤方法,本發(fā)明通過新型組合跟蹤算法對采用魚眼鏡頭的全方位視 覺中的目標進行跟蹤。本發(fā)明算法的主要思想是通過連續(xù)自適應均值漂移算法,依據(jù)目標的色彩直方圖 來進行跟蹤,并通過卡爾曼濾波進行校正和預測目標的位置和速度。在目標“丟失”的情況 下,先進行全視野的搜索,等搜索到具有同樣色彩的目標時,在其所在位置進行局部校正, 并使用歸一化互相關技術的模板匹配算法來確定目標是否為原先的待跟蹤目標。在目標運 動形變和外部光照緩變的情況下,使用該方法進行跟蹤目標的效果較為理想。本發(fā)明提供的用于全方位視覺的目標跟蹤方法的具體內容包括第一步、采用帶有魚眼鏡頭的圖像采集系統(tǒng)捕獲一幀全方位景物的圖像信息;第二步、對整體圖像進行全景畸變校正;第三步、按圖像區(qū)域確定被跟蹤目標,計算被跟蹤目標區(qū)域的顏色直方圖;第四步、采用帶有魚眼鏡頭的圖像采集系統(tǒng)捕獲另一幀全方位景物的圖像信息;第五步、采用局部圖像矯正、卡爾曼濾波算法、單一變量歸一化互相關模板匹配算 法、改進型連續(xù)自適應均值漂移跟蹤算法相結合的算法對全方位景物的圖像信息進行處 理,確定被跟蹤目標的空間位置并輸出跟蹤結果;第六步、當被跟蹤目標找到時,從第四步繼續(xù)進行后續(xù)操作。當被跟蹤目標丟失 時,采用擴大搜索區(qū)域到全視野搜索的方法進行目標搜索,確定被跟蹤目標是否再現(xiàn);當搜 索到物體時,再進行魚眼圖像局部畸變矯正和模板匹配校準搜索區(qū)域,以確定所搜索到的物體是否為被跟蹤目標,否則重新全視野搜索直至重新搜索到被跟蹤目標。以上第五步所述內容是本發(fā)明提出的改進型連續(xù)自適應均值漂移目標跟蹤算法 的技術特征。其中,所述的連續(xù)自適應均值漂移目標跟蹤算法是在連續(xù)視頻圖像處理中,針對運動目標的動態(tài)概率分布有較好的自適應性,可以 根據(jù)物體的顏色特征實現(xiàn)搜索區(qū)域的靈活調整;連續(xù)自適應均值漂移目標跟蹤算法的前提 理論算法是顏色直方圖的反相投影;算法采用了 HSV顏色空間,進而克服了 RGB顏色空間的易受光照影響等缺點,有效 的保證了跟蹤物體的顏色特征的穩(wěn)定性;其中直方圖反向投影計算,均值漂移算法是該算法的重要組成部分;反向投影計算解決了借助顏色直方圖將HSV顏色空間的原始圖像轉換成色彩概 率分布圖像;直方圖反向投影的主要思路是用顏色直方圖的像素統(tǒng)計量依次表示原始序列 圖像中相對應的像素,再通過量化獲得色彩概率分布圖像;在原始序列圖像中,光強度的值 是通過像素來描述的,而在色彩概率分布圖像中,像素表示的是跟蹤目標在此出現(xiàn)的概率 大??;使用均值漂移算法解決了逐幀搜索和跟蹤目標的問題;該算法通過核密度估計的 無參數(shù)快速模式匹配,用迭代的方式來搜索和跟蹤目標;該算法提取了跟蹤區(qū)域的色度分 量,并對其進行了一維直方圖處理,進而得到直方圖反向投影的數(shù)據(jù);使用連續(xù)自適應均值漂移算法初始化搜索窗口的位置及其參數(shù),隨后采用均值漂 移算法計算搜索窗口的新位置及其參數(shù),并將結果保留;然后在下一幀圖像的處理過程中, 依靠該結果重新設定搜索窗口的位置和參數(shù);如此往復,直到收斂為止;本文方法在目標丟失時,將連續(xù)自適應均值漂移算法搜索窗口擴大到全視野來搜 索目標;該改進型的連續(xù)自適應均值漂移算法在目前計算機硬件條件下能夠滿足系統(tǒng)的高 實時性和魯棒性的要求,同時在物體運動位移很大的情況下,可以通過處理一兩幀圖像就 可以迅速恢復跟蹤。所述的模板匹配算法為單一變量歸一化互相關模板匹配法以提高跟蹤算法的處 理速度,只在目標丟失的情況下采用該算法;該算法的處理思想是選取大小為IXI的原始圖像M和大小為JXJ的模板N,其 中I,J均表示像素且I遠大于J ;將模板N在圖像M上以由上至下,由左至右的順序進行遍 歷匹配,選取互相關值最大的子圖MU,位置作為目標跟蹤位置;其相關系數(shù)R(x,y)方程式 如下

      所述的卡爾曼濾波算法的內容包括卡爾曼濾波是在最小均方誤差準則下的線性系統(tǒng)最優(yōu)估計方法,是以預測結果和 修正結果來進行遞推濾波的;卡爾曼濾波的算法思路是獲得最小的估計誤差和無偏估計;其中卡爾曼濾波先經(jīng)過初始化系統(tǒng)、預測下一幀結果以及數(shù)據(jù)更新來完成狀態(tài)估計;卡爾 曼濾波器是對隨機信號進行最優(yōu)濾波處理的遞歸型濾波器,能同時使每個信號分量的均方 估計誤差最??;卡爾曼濾波器的數(shù)學模型設定為系統(tǒng)狀態(tài)方程x(k) = Ax (k-1) +w (k-1)系統(tǒng)觀測方程y(k) = Cx (k) +v (k)設向量x(k)是k時刻的隨機信號向量;A為系統(tǒng)轉移矩陣,C為系統(tǒng)的測量矩 陣;y(k)為k時刻的測量值;w(k-l)為k-1時刻的狀態(tài)噪聲向量;w(k-l)的概率分布為 p(w(k"l)) N(0,Q(k)),其中Q(k)是狀態(tài)噪聲協(xié)方差矩陣;v(k)是在k時刻的觀測噪聲 向量;v(k)的概率分布為p(v(k)) N(0,R(k)),其中R(k)是觀測噪聲的協(xié)方差矩陣;其 中狀態(tài)噪聲向量和觀測噪聲向量彼此相互獨立,且均與初始狀態(tài)獨立。所述的局部圖象矯正的方法是在全方位圖像實時校正中,當入射角小于等于65°時使用正交校正模型,大于 65°小于等于75°時使用等立體角校正模型,大于75°時使用等距校正模型;由于校正計 算的計算過程耗時量大,所以只對目標可能出現(xiàn)的區(qū)域進行局部圖像矯正以滿足系統(tǒng)的實 時性要求;在校正模型中令M' (x' , y')為魚眼圖像中的一點,M (x,y)為校正后的點, (x' 0,y' Q)為魚眼圖像的中心,r'為M'到中心點的距離,(X(l,yQ)為校正后圖像的中心, r為M到校正后中心點的距離,z為校正后平面的高度;D.等距校正模型為 E.等立體角校正模型為 F.正交校正模型為
      本發(fā)明的優(yōu)點及效果
      通過使用本發(fā)明提供的方法,可以使待跟蹤目標與背景可分離性增強,即使圖像 有明顯的視覺畸變也可跟蹤目標,目標跟蹤系統(tǒng)具有實時性、魯棒性和精確性。特別是在光 照變化且背景復雜的情況下,該法能有效地解決目標因全遮擋或移出視野后再現(xiàn)的跟蹤恢 復問題,以及加速度劇烈變化的目標跟蹤問題。

      圖1是本發(fā)明方法組合算法框圖;圖2是連續(xù)自適應均值漂移跟蹤算法的流程圖;圖3是實施例中被跟蹤目標原圖;圖4是被跟蹤目標的反向投影計算效果圖;圖5是被跟蹤目標區(qū)域顏色直方圖;圖6用于實驗的機器人自引導車AGV圖7是局部與全部遮擋情況下的目標跟蹤實驗過程。其中,(a)是目標跟蹤前初 始化目標結果、(b)是目標局部遮擋后的跟蹤、(c)是目標全部遮擋后的跟蹤、(d)是目標局 部再現(xiàn)后的跟蹤效果、(e)目標全部再現(xiàn)后的跟蹤效果。圖中目標用白色方框標記被跟蹤 目標。圖8是復雜背景下目標運動出視野的跟蹤實驗過程;其中,(a)是目標跟蹤前目標 初始化目標結果、(b)是目標移動到魚眼鏡頭視野邊緣的跟蹤結果、(c)是目標移動出魚眼 鏡頭視野的跟蹤結果、(d)是目標從視野另一端再現(xiàn)的跟蹤效果。圖中目標用白色方框標 記被跟蹤目標。
      具體實施方式實施例1 本發(fā)明提供的用于全方位視覺的目標跟蹤方法的具體過程如下1、全方位視覺是通過捕獲一幀廣角圖像來獲得三維空間中全部景物的圖像信息 (其中方位角可達360°,天頂角可達180° )。該技術具有采集信息量大和觀察方位廣等 特點,被廣泛地應用于視頻監(jiān)控等領域,是有較高研究價值的視覺感知技術之一。采用魚眼 鏡頭是構建全方位視覺該技術的一種有效方式。魚眼鏡頭是一種焦距極短的廣角鏡頭。它 的視角接近或等于180°。2、魚眼鏡頭所采集的圖像存在著嚴重的畸變,為了克服畸變帶來的目標跟蹤誤 差,采用了局部圖象矯正與卡爾曼濾波算法、歸一化模板匹配算法、改進型連續(xù)自適應均值 漂移跟蹤算法相結合的算法,提高了系統(tǒng)的目標跟蹤的正確率和實時性。2. 1連續(xù)自適應均值漂移跟蹤算法屬于運動跟蹤算法的范疇,是均值漂移算法的 改進和升華。該算法的跟蹤依據(jù)是被跟蹤目標的顏色特征。其中反向投影計算,均值漂移 算法和連續(xù)均值漂移算法是該算法的3個重要組成部分。2. 1. 1、反向投影計算主要過程如下計算被跟蹤目標的顏色直方圖;將原始圖像 轉成色彩概率分布圖像。2. 1. 2、均值漂移算法解決了逐幀跟蹤物體的問題,并基于核密度估計的無參數(shù)快 速模式匹配,用迭代的方式來搜索和跟蹤目標。
      2. 1. 3、連續(xù)自適應均值漂移算法采用了 HSV顏色空間,進而克服了 RGB空間的種 種不足(如受光照影響較大,容易丟失色彩信息等)。該算法提取了跟蹤區(qū)域的色度分量, 并對其進行了 一維直方圖處理,獲得反向投影圖。本文方法對連續(xù)自適應均值算法做出了優(yōu)化和改進。即在目標丟失時,將搜索窗 口擴大到全視野來搜索目標。該改進型的連續(xù)自適應均值算法在目前計算機硬件條件下能 夠滿足系統(tǒng)的高實時性和魯棒性的要求,同時在物體運動位移很大的情況下,可以通過處 理一兩幀圖像就可以迅速恢復跟蹤。點(x,y)處的像素值設為T (x,y),其零階距⑴,一階距⑵、(3)及其二階距⑷、 (5)、(6)表示為A。=ZI>2r(X,力
      x y^u
      X v由下式可以得到搜素窗口的質心
      AT M(Xl,y,) = (H)
      八 00 "00圖2是連續(xù)自適應均值漂移跟蹤算法的流程圖。單一變量歸一化互相關模板匹配法較好的抗干擾性使得該算法廣泛應用于圖像 識別領域,但是該算法計算量較大,因此對硬件配置要求較高。為了提高本文所研究的跟蹤 算法的處理速度,只在目標丟失的情況下采用。該算法的處理思想是選取大小為IXI的原始圖像M和大小為JXJ的模板N,其 中I,J均表示像素且I遠大于J。將模板N在圖像M上以由上至下,由左至右的順序進行 遍歷匹配,選取互相關值最大的子圖化、位置作為目標跟蹤位置。其相關系數(shù)R(x,y)方 程式如下
      Z t [Mx-y (i, j) - M17] x [N(i, j) 一 N]力=| , T 片,,
      jtZWxy(i, j) - f ]2 x I £[尊,j)-對
      \| /=1 7=1/=1 j=\在背景有嚴重干擾且環(huán)境光照變化不劇烈的情況下,本文所提的方法能夠對失蹤 (因全遮擋或移出視野或劇烈運動)后重現(xiàn)的目標進行搜索和匹配,以確定跟蹤目標,完成 跟蹤任務。在目標跟蹤過程中,往往會伴隨著光照微變的情況,所以目標的顏色特征會發(fā)生 變化,這時會出現(xiàn)目標丟失的現(xiàn)象。同時,當目標隨機運動或受到遮擋或運動出可視范圍
      9時,也會跟蹤失敗。傳統(tǒng)的連續(xù)自適應均值漂移跟蹤算法也不能解決上述問題。在大量實 驗的前提下,提出了結合了魚眼鏡頭局部畸變矯正、卡爾曼濾波、模板匹配和全視野搜索的 改進型連續(xù)自適應均值算法算法。其框圖如圖1。在目標跟蹤時,當被跟蹤目標丟失后再現(xiàn)時,采用擴大搜索區(qū)域進行全視野搜索, 當搜索到物體時,在進行魚眼圖像局部畸變矯正和模板匹配校準搜索區(qū)域,以確定所搜索 物體為跟蹤目標,否則重新全視野搜索。實施例2實驗的環(huán)境是在PC上完成的。工作環(huán)境CPU為AMD4200,內存4G,顯卡512M,以 及裝配魚眼鏡頭的USB 口的C⑶數(shù)字攝像機,采集圖像分辨率為512*384像素,可跟蹤的目 標大小范圍為5*3 455*320像素。實驗中不同時刻的被跟蹤目標在魚眼鏡頭中的跟蹤效果圖如下所示,其中圖5是 初始時刻所設置的跟蹤區(qū)域顏色直方圖;圖6(a)是目標運動時,跟蹤的結果;(b)是目標 處于局部遮擋時的跟蹤效果;(c)是目標處于全部被遮擋時的狀態(tài);(d)是目標處于局部再 現(xiàn)時,跟蹤窗再次鎖定目標;(e)是目標全部出現(xiàn)時跟蹤效果;圖7(a)跟蹤目標初始狀態(tài); (b)表示目標運動到魚眼鏡頭邊緣;(c)表示目標運動出視野的跟蹤狀態(tài);(d)是目標再現(xiàn) 于魚眼鏡頭視野的跟蹤效果。圖(8)是導航系統(tǒng)在航標被全遮擋或移出視野后再次出現(xiàn)時的跟蹤航標實驗的 結果。在圖(a)中,系統(tǒng)有效排除背景干擾進行對目標的跟蹤。在圖(b)中,目標移動到強 光區(qū)域,被系統(tǒng)有效排除了光照變化和干擾的影響,實現(xiàn)了準確的跟蹤。在圖(c)中,目標 被人為的全部遮擋。在圖(d)中,目標出現(xiàn)后被系統(tǒng)識別和跟蹤,有效克服了光照影響。在 圖(e)中,目標全部移動出鏡頭視野。在圖(f)中,系統(tǒng)精確地鎖定且跟蹤到全部出現(xiàn)于鏡 頭視野中的目標;此時的目標是在光變的情況下做高速不規(guī)則運動出現(xiàn)的。由此可見,采用 所提的組合跟蹤算法的AGV導航系統(tǒng)對于解決光變情況下的目標的跟蹤恢復問題具有較 好的效果,同時也滿足了系統(tǒng)的實時性和魯棒性的要求。本文提出的組合跟蹤算法可以較好地實現(xiàn)隨機運動目標跟蹤。在魚眼鏡頭圖像邊 緣的圖像畸變很嚴重,跟蹤的精確度比在中心區(qū)域要差。表1是不同目標在不同跟蹤條件 下的實驗測量結果統(tǒng)計。表1.目標跟蹤實驗結果 參考文獻[1]賈云得呂宏靜徐岸劉萬春.一種魚眼鏡頭成像立體視覺系統(tǒng)的標定方 法[J].計算機學報,Nov. 2000,23(11) 1216-1219.[2]J. ffeng. P.Cohen, and M. Herniou, Camera Calibration with Distortion Models andAccuracy Evaluation [J], IEEE Trans. Pattern Analysis and Machine Intelligence, Oct. 1992,14(10) :965_980
      [3]M. J. Swain, D. H. Ballard, Indexing via color histograms. Proceedings of ImageUnderstanding Workshop,1990,623-630. C[4]Donghe Yang, Jinsong Xia. Face Tracking Based on CamShift Algorithm and MotionPrediction[C]. Intelligent Systems and Applications,2009. ISA 2009. International fforkshopon. 23-24May 2009[5]Greg Welch, Gray Bishop. An Introduction to the Kalman Filter[J]. UNC-Chapel Hill, TR95-041, April 5,2004.
      權利要求
      一種用于全方位視覺的目標跟蹤方法,其特征在于該方法包括第一步、采用帶有魚眼鏡頭的圖像采集系統(tǒng)捕獲一幀全方位景物的圖像信息;第二步、對整體圖像進行全景畸變校正;第三步、按圖像區(qū)域確定被跟蹤目標,計算被跟蹤目標區(qū)域的顏色直方圖;第四步、采用帶有魚眼鏡頭的圖像采集系統(tǒng)捕獲另一幀全方位景物的圖像信息;第五步、采用局部圖像矯正、卡爾曼濾波算法、單一變量歸一化互相關模板匹配算法、改進型連續(xù)自適應均值漂移目標跟蹤算法相結合的算法對全方位景物的圖像信息進行處理,確定被跟蹤目標的空間位置并輸出跟蹤結果;第六步、當被跟蹤目標找到時,從第四步繼續(xù)進行后續(xù)操作;當被跟蹤目標丟失時,采用擴大搜索區(qū)域到全視野搜索的方法進行目標搜索,確定被跟蹤目標是否再現(xiàn);當搜索到物體時,再進行魚眼圖像局部畸變矯正和模板匹配校準搜索區(qū)域,以確定所搜索到的物體是否為被跟蹤目標,否則重新全視野搜索直至重新搜索到被跟蹤目標。
      2.根據(jù)權利要求1所述的方法,其特征在于第五步所述的改進型連續(xù)自適應均值漂移 目標跟蹤算法是在連續(xù)視頻圖像處理中,針對運動目標的動態(tài)概率分布的自適應性和物體的顏色特征 實現(xiàn)搜索區(qū)域的靈活調整;算法采用了 HSV顏色空間,克服了 RGB顏色空間目標色彩分類易受光照干擾的缺點,有 效的保證了被跟蹤物體顏色特征的穩(wěn)定性;算法中使用了反向投影計算,又稱為直方圖背投影,它主要用于解決如下問題即計算 跟蹤目標的顏色直方圖,并借助顏色直方圖將HSV顏色空間的原始圖像轉換成色彩概率分 布圖像;使用均值漂移算法解決了逐幀搜索和跟蹤目標的問題;該算法通過核密度估計的無參 數(shù)快速模式匹配,用迭代的方式來搜索和跟蹤目標;該算法提取了跟蹤區(qū)域的色度分量,并 對其進行了一維直方圖處理,進而得到直方圖反向投影的數(shù)據(jù);使用連續(xù)自適應均值漂移算法初始化搜索窗口的位置及其參數(shù),隨后采用均值漂移算 法計算搜索窗口的新位置及其參數(shù),并將結果保留;然后在下一幀圖像的處理過程中,依靠 該結果重新設定搜索窗口的位置和參數(shù);如此往復,直到收斂為止;本文方法在目標丟失時,將連續(xù)自適應均值漂移算法搜索窗口擴大到全視野來搜索目 標;該改進型的連續(xù)自適應均值漂移算法在目前計算機硬件條件下能夠滿足系統(tǒng)的高實時 性和魯棒性的要求,同時在物體運動位移很大的情況下,可以通過處理一兩幀圖像就可以 迅速恢復跟蹤。
      3.根據(jù)權利要求1所述的方法,其特征在于第五步所述的模板匹配算法,該方法是使 用單一變量歸一化互相關模板匹配算法以提高跟蹤算法的處理速度。由于該算法運算速度 較慢,所以只在目標丟失的情況下采用該算法;該算法的處理思想是選取大小為IXI的原始圖像M和大小為JXJ的模板N,其中I, J均表示像素且I遠大于J ;將模板N在圖像M上以由上至下,由左至右的順序進行遍歷匹 配,選取互相關值最大的子圖MM,位置作為目標跟蹤位置;其相關系數(shù)R(x,y)方程式如 下
      4.根據(jù)權利要求1所述的方法,其特征在于第五步所述的卡爾曼濾波算法的內容包括卡爾曼濾波是在最小均方誤差準則下的線性系統(tǒng)最優(yōu)估計方法,是以預測結果和修正 結果來進行遞推濾波的;卡爾曼濾波的算法思路是獲得最小的估計誤差和無偏估計;其中 卡爾曼濾波先經(jīng)過初始化系統(tǒng)、預測下一幀結果以及數(shù)據(jù)更新來完成狀態(tài)估計;卡爾曼濾 波器是對隨機信號進行最優(yōu)濾波處理的遞歸型濾波器,能同時使每個信號分量的均方估計 誤差最??;卡爾曼濾波器的數(shù)學模型設定為系統(tǒng)狀態(tài)方程x (k) = Ax (k-1) +w (k-1)(2)系統(tǒng)觀測方程y (k) = Cx (k) +v (k)(3)設向量x(k)是k時刻的隨機信號向量;A為系統(tǒng)轉移矩陣,C為系統(tǒng)的測量矩陣; y(k)為k時刻的測量值;w(k-l)為k-1時刻的狀態(tài)噪聲向量;w(k-l)的概率分布為 p(w(k-l)) N(0,Q(k)),其中Q(k)是狀態(tài)噪聲協(xié)方差矩陣;v(k)是在k時刻的觀測噪聲 向量;v(k)的概率分布為p(v(k)) N(0,R(k)),其中R(k)是觀測噪聲的協(xié)方差矩陣;其 中狀態(tài)噪聲向量和觀測噪聲向量彼此相互獨立,且均與初始狀態(tài)獨立。
      5.根據(jù)權利要求1所述的方法,其特征在于第五步所述的局部圖像矯正的方法是 在全方位圖像實時校正中,當入射角小于等于65°時使用正交校正模型,大于65°小于等于75°時使用等立體角校正模型,大于75°時使用等距校正模型;由于校正計算的計 算過程耗時量大,所以只對目標可能出現(xiàn)的區(qū)域進行局部圖像矯正以滿足系統(tǒng)的實時性要 求;在校正模型中令M' (x' ,y')為魚眼圖像中的一點,M(x,y)為校正后的點,(x'。, y'。)為魚眼圖像的中心,r'為M'到中心點的距離,(X(l,yci)為校正后圖像的中心,r為M 到校正后中心點的距離,z為校正后平面的高度;A.等距校正模型為 , , r< B.等立體角校正模型為 C.正交校正模型為
      全文摘要
      本發(fā)明公開了一種用于機器人全方位視覺導航的目標跟蹤方法,包括用魚眼鏡頭進行全方位圖像采集;針對魚眼鏡頭采集的圖像進行跟蹤初始化,跟蹤初始化過程中以HSV顏色特征空間構造待跟蹤圖像目標的特征參數(shù);使用待跟蹤目標顏色組合特征直方圖及直方圖概率分布特征在魚眼鏡頭采集的畸變圖像中尋找待跟蹤目標的位置并設置相應標記。通過使用本發(fā)明提供的方法,可以使待跟蹤目標與背景可分離性增強,即使圖像有明顯的視覺畸變也可跟蹤目標,目標跟蹤系統(tǒng)具有實時性、魯棒性和精確性。特別是在光照變化且背景復雜的情況下,該法能有效地解決目標因全遮擋或移出視野后再現(xiàn)的跟蹤恢復問題,以及目標在視野中移動速度劇烈變化情況下的目標跟蹤問題。
      文檔編號H04N7/18GK101860729SQ20101014792
      公開日2010年10月13日 申請日期2010年4月16日 優(yōu)先權日2010年4月16日
      發(fā)明者元偉, 孫杰, 曹作良 申請人:天津理工大學
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1