国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于積分匹配的快速圖像協(xié)同顯著區(qū)域監(jiān)測方法

      文檔序號:8923239閱讀:526來源:國知局
      一種基于積分匹配的快速圖像協(xié)同顯著區(qū)域監(jiān)測方法
      【技術(shù)領域】
      [0001] 本發(fā)明涉及計算機視覺與圖像處理領域,尤其涉及一種基于積分匹配的快速圖像 協(xié)同顯著區(qū)域監(jiān)測方法,本方法是通過在規(guī)則的超像素網(wǎng)格上使用高維積分匹配算法實現(xiàn) 的。
      【背景技術(shù)】
      [0002] 本發(fā)明中涉及到的【背景技術(shù)】有:顯著性檢測方法(SaliencyDetectionMethod): 又稱為單一圖像的顯著性檢測方法,旨在從一幅圖像中將顯著的前景目標或區(qū)域提取出 來。近年來,顯著性檢測模型已經(jīng)得到了廣泛的應用圖像分割、目標檢測與識別、圖像 拼接等。常用的方法有:SF[1]、FT[2]、RCm和HC[3]。
      [0003] SF的基本思想為:將顯著性看作為一個濾波器,使用濾波器的方法加速。Perazzi 主要對局部和全局兩種顯著特征的公式進行了分析,提出了一種在線性時間內(nèi)計算的方 法。
      [0004] FT:Achanta等人從頻率域角度出發(fā),首次提出了一種基于全局對比的顯著區(qū)域 檢測的方法。該方法將經(jīng)過高斯低通濾波圖像中的每個像素值和整幅圖像的平均像素值之 間的歐幾里得距離作為該點的顯著值。該方法非常簡單,時間消耗非常低,且實驗結(jié)果在查 準率-差全率方面的效果也堪稱優(yōu)良。然而FT在以下兩種情況下會失效:
      [0005] 1.顯著區(qū)域的顏色占圖像中的大部分,通過方法[4]計算后,背景會具有更高的顯 著值;
      [0006] 2.背景中含有少量突出的顏色,這樣背景中的這部分顏色的顯著值也會非常高。
      [0007] HC:基于直方圖對比度的方法,每一個像素的顯著性值是由它與圖像中所有其他 像素的顏色差異來確定,得到全分辨率顯著性圖像;
      [0008] RC:基于局部對比度的方法,先將圖像分割成小區(qū)域,采用的分割方法是基于圖的 分割,基本分割思想是將每個像素點作為無向圖的頂點,兩個像素點之間的不相似度作為 邊的權(quán)重,要求連接相同區(qū)域內(nèi)的兩個頂點的邊的最大權(quán)重要小于連接不同區(qū)域的頂點的 邊的最小權(quán)重,在迭代過程中進行頂點歸納與區(qū)域合并;每個區(qū)域的顯著性值由它與其他 所有區(qū)域的空間距離和區(qū)域像素數(shù)加權(quán)的顏色差異來確定;空間距離為兩個區(qū)域重心的歐 氏距離,較遠區(qū)域分配較小權(quán)值;
      [0009] 以上四種方法只是檢測單幅圖像的顯著對象,但是大部分情況下都傾向于從視頻 序列中檢測出顯著對象,而運用以上四種方法,則會在忽視視頻幀的前后相關(guān)性的前提下 一幀一幀地去檢測顯著對象,這時準確性不可避免的就會下降。
      [0010] 協(xié)同顯著檢測方法(Co-SaliencyDetectionMethod)偏向于從一個圖像對或多 幅圖像中檢測出這些圖像所共有的顯著區(qū)域,而忽視每幅圖像中所獨有的顯著目標。常用 的方法有:PC[5]、MS[6]、CC[7]。本發(fā)明也屬于這一類。
      [0011]PC:在前置注意方案(preattentivescheme)下檢測出協(xié)同顯著對象。
      [0012] MS:單幅圖像顯著圖SSIM(singleimagesaliencymap)和多幅圖像顯著圖 MISM(multi-imagesaliencymap)的線性組合。
      [0013] CC:通過使用對比(contrast)、空間(spatial)和關(guān)聯(lián)(corresponding)的線索 來計算圖像聚類的顯著性的方法檢測出協(xié)同顯著對象。
      [0014] 以上三個方法的時間成本較高而準確度低。
      [0015] 超像素網(wǎng)格(SuperpixelGrid):圖像經(jīng)過超像素分割后,得到的是不規(guī)則的超像 素結(jié)構(gòu),在使用其對圖像進行處理時,這種不規(guī)則結(jié)構(gòu)導致效率比較低。為將任意不規(guī)則的 超像素結(jié)構(gòu)進行規(guī)整化排序,近年來,在圖像處理領域,一些研宄人員提出了一個超像素網(wǎng) 格的概念。利用目標圖像的超像素分割結(jié)果,基于每一塊超像素的坐標將其動態(tài)地置于一 個虛擬的矩形網(wǎng)格中:該網(wǎng)格結(jié)構(gòu)應該盡可能地保留原超像素結(jié)構(gòu)的整體連貫性、超像素 之間的連接性、局部以及全局特征;引入偽節(jié)點來保持網(wǎng)格規(guī)整的結(jié)構(gòu)和傳遞能量。近年來 生成超像素網(wǎng)格的一些常用方法有SuperLatice[8]、LatticeCut[9]、TurboPixel[1°]、SEEDS[11] 和SP-Grid[12]。
      [0016] 積分圖(IntegralImage):為了快速計算圖像任意一個區(qū)域的特征而在[13]中被 提出來。在積分圖中任意一個像素點(x,y)的值可以表示為:
      [0018]其中,S(x,y)表示積分圖中點(x,y)的值,i(x',y')表示原圖像中像素點(x',y') 的值。使用公式:
      [0019] r(x,y) =r(x,y-1)+i(x,y)
      [0020] S(x,y) =S(x-1,y)+r(x,y)
      [0021] 進行迭代運算即可得到原圖像的積分圖。
      [0022] 其中,r(x,y)表示第x行的從第一個元素到第y個元素的和,定義迭代下限 r(x, -1) =S(_l,y) = 0(對于r(x,y-1),相當于y取值為 0 ;
      [0023] 對于S(x_l,y),相當于x取值為0) ;r(x,y_l)的定義與r(x,y)類似,S(x_l,y)的 定義與S(x,y)類似。

      【發(fā)明內(nèi)容】

      [0024] 本發(fā)明提供了一種基于積分匹配的快速圖像協(xié)同顯著區(qū)域監(jiān)測方法,本發(fā)明通過 建立一個顯著懲罰圖、一個魯棒的色彩模型和高維積分匹配方法以及利用這個方法來從多 幅圖像中提取出最大協(xié)同顯著對象,詳見下文描述:
      [0025] -種基于積分匹配的快速圖像協(xié)同顯著區(qū)域監(jiān)測方法,其特征在于,所述快速圖 像協(xié)同顯著區(qū)域監(jiān)測方法包括以下步驟:
      [0026] 生成顯著圖,在所述顯著圖的基礎上建立顯著懲罰圖;
      [0027] 建立魯棒的色彩模型,通過所述色彩模型獲取圖像對中兩個區(qū)域的余弦相似度;
      [0028] 構(gòu)建高維積分匹配方法,通過所述高維積分匹配方法對最大協(xié)同顯著區(qū)域進行檢 測。
      [0029] 其中,所述建立魯棒的色彩模型,通過所述色彩模型獲取圖像對中兩個區(qū)域的余 弦相似度的步驟具體為:
      [0030]i' = (ir/ 0,ig/ 0,ib/ 0),其中 0 =max(ir,ig,ib)
      [0031] i'為魯棒的色彩模型中的每一個像素,Uig,ib為像素點的三個值;
      [0032] 兩個區(qū)域的余弦相似度為:
      [0034] 兩個區(qū)域?qū)闹狈綀D分別為匕和h2。
      [0035] 其中,所述構(gòu)建高維積分匹配方法,通過所述高維積分匹配方法對最大協(xié)同顯著 區(qū)域
      [0036] 進行檢測的步驟具體為:
      [0037] 1)二維積分圖的快速構(gòu)造以及矩形區(qū)域值的快速計算;
      [0038] 2)在二維積分圖的基礎上進行高維積分表的快速構(gòu)造以及高位矩形區(qū)域值的快 速計算;
      [0039] 3)計算兩個高維區(qū)域的相似度,實現(xiàn)高維區(qū)域的積分匹配,獲取最大的協(xié)同顯著 區(qū)域。
      [0040] 本發(fā)明提供的技術(shù)方案的有益效果是:相比于其它協(xié)同顯著性檢測方法 (Co-saliencyDetectionMethod),本發(fā)明所提出的協(xié)同顯著性檢測方法更快速、更準確。
      【附圖說明】
      [0041] 圖1為基于積分匹配的快速圖像協(xié)同顯著區(qū)域監(jiān)測方法的流程圖;
      [0042] 圖2為標準(R,G,B)色彩模型與魯棒的色彩模型的實驗結(jié)果對比圖;
      [0043] 圖3為二維積分圖中S(X,y)的表示圖;
      [0044] 圖4為原圖像中任意矩形區(qū)域(pQ,Pl)的值R(p。,Pl)表示圖;
      [0045] 圖5為基于公開數(shù)據(jù)集[6]的檢測結(jié)果比較圖;
      [0046] 圖6為基于公開數(shù)據(jù)集[6]的性能比較圖;
      [0047] 圖7為基于康奈爾大學的數(shù)據(jù)集(CMU-CornelliCoseg數(shù)據(jù)集[14])的檢測結(jié)果對 比圖;
      [0048] 圖8為基于康奈爾大學的數(shù)據(jù)集(CMU-CornelliCoseg數(shù)據(jù)集[14])的性能比較 圖。
      【具體實施方式】
      [0049] 為使本發(fā)明的目的、技術(shù)方案和優(yōu)點更加清楚,下面對本發(fā)明實施方式作進一步 地詳細描述。
      [0050] 本發(fā)明旨在從多幅圖像中快速準確地提取出共有的顯著對象。首先,對于每一幅 圖像,該監(jiān)測方法都會得到對應的顯著懲罰圖土M,圖中正值表示該像素點是顯著的,應該 得到鼓勵;而負值表示該像素點是非顯著的,應該得到懲罰。其次,該方法提出了一個可以 去除或減少光照影響的魯棒的色彩模型,在該色彩模型中,還可以簡單而高效地得到圖像 對中兩個區(qū)域的余弦相似度。最后,通過在規(guī)則的超像素網(wǎng)格上使用高維積分匹配算法,最 終從圖像對中提取出最大的協(xié)同顯著區(qū)域。
      [0051] 實施例1
      [0052] 101 :生成顯著圖,在所述顯著圖的基礎上建立顯著懲罰圖;
      [0053] 102 :建立魯棒的色彩模型,通過所述色彩模型獲取圖像對中兩個區(qū)域的余弦相似 度;
      [0054] 103 :構(gòu)建高維積分匹配方法,通過所述高維積分匹配方法對最大協(xié)同顯著區(qū)域進 行檢測。
      [0055] 其中,所述建立魯棒的色彩模型,通過所述色彩模型獲取
      當前第1頁1 2 3 4 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1