国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于積分匹配的快速圖像協(xié)同顯著區(qū)域監(jiān)測(cè)方法_4

      文檔序號(hào):8923239閱讀:來(lái)源:國(guó)知局
      br>[0209] [1]PerazziF,KrahenbuhlP,PritchY,etal.Saliencyfilters:Contrast basedfilteringforsalientregiondetection[C]//ComputerVisionandPattern Recognition(CVPR), 2012IEEEConferenceon.IEEE, 2012:733-740.
      [0210] [2]AchantaR,HemamiS,EstradaF,etal.Frequency-tunedsalientregion detection[C]//ComputerVisionandPatternRecognition, 2009.CVPR2009.IEEE Conferenceon.IEEE,2009:1597-1604.
      [0211] [3]ChengMM,ZhangGX,MitraNJ,etal.Globalcontrastbasedsalient regiondetection[C]//ComputerVisionandPatternRecognition(CVPR), 2011IEEE Conferenceon.IEEE,2011:409-416.
      [0212] [4]MaYF,ZhangHJ.Contrast-basedimageattentionanalysisbyusing fuzzygrowing[C]//Proceedingsofthe11thACMInternationalConferenceon Multimedia.ACM,2003:374-381.
      [0213] [ 5 ]ChenHT.Preattentivec〇-saliencydetection[C]// ImageProcessing(ICIP), 201017thIEEEInternationalConference on.IEEE,2010:1117-1120.
      [0214] [6]LiH,NganKN.Aco-saliencymodelofimagepairs[J].Image Processing,IEEETransactionson,2011,20 (12):3365-3375.
      [0215] [7]FuH,CaoX,TuZ.Cluster-basedco-saliencydetection[J]?Image Processing,IEEETransactionson,2013,22(10):3766-3778.
      [0216] [8]MooreAP,PrinceS,WarrellJ,etal.Superpixellattices[C]// ComputerVisionandPatternRecognition, 2008.CVPR2008.IEEEConference on.IEEE,2008:1-8.
      [0217] [9]MooreAP,PrinceSJD,WarrellJ."LatticeCut"-Constructing superpixelsusinglayerconstraints[C]//ComputerVisionandPattern Recognition(CVPR), 2010IEEEConferenceon.IEEE,2010:2117-2124.
      [0218] [10]LevinshteinA,StereA,KutulakosKN,etal.Turbopixels:Fast superpixelsusinggeometricflows[J].PatternAnalysisandMachine Intelligence,IEEETransactionson,2009,31 (12):2290-2297.
      [0219] [11]VandenBerghM,BoixX,RoigG,etal.SEEDS:Superpixelsextracted viaenergy-drivensampling[M]//ComputerVision-ECCV2012.SpringerBerlin Heidelberg,2012:13-26.
      [0220] [12]LiL,F(xiàn)engW,WanL,etal.Maximumcohesivegridofsuperpixels forfastobjectlocalization[C]//ComputerVisionandPattern Recognition(CVPR), 2013IEEEConferenceon.IEEE,2013:3174-3181.
      [0221] [13]ViolaP,JonesM.Rapidobjectdetectionusingaboostedcascadeof simplefeatures[C]//ComputerVisionandPatternRecognition, 2001.CVPR2001. Proceedingsofthe2001IEEEComputerSocietyConferenceon.IEEE, 2001, 1:1-511-1-518vol. 1.
      [0222] [14]BatraD,KowdleA,ParikhD,etal.iCoseg:Interactiveco-segmentation withintelligentscribbleguidance[C]//ComputerVisionandPattern Recognition(CVPR), 2010IEEEConferenceon.IEEE,2010:3169-3176.
      [0223] [15]IttiL,KochC,NieburE.Amodelofsaliency-basedvisualattention forrapidsceneanalysis[J].IEEETransactionsonPatternAnalysisandMachine Intelligence, 1998, 20(11):1254-1259.
      [0224] [16]HouX,ZhangL.Saliencydetection:Aspectralresidualapproach[C]// ComputerVisionandPatternRecognition, 2007.CVPR' 07.IEEEConference on.IEEE, 2007:1-8.
      [0225] [17]MargolinR,TalA,Zelnik-ManorL.Whatmakesapatchdistinct? [C]//ComputerVisionandPatternRecognition(CVPR), 2013IEEEConference on.IEEE, 2013:1139-1146.
      [0226] 本領(lǐng)域技術(shù)人員可以理解附圖只是一個(gè)優(yōu)選實(shí)施例的示意圖,上述本發(fā)明實(shí)施例 序號(hào)僅僅為了描述,不代表實(shí)施例的優(yōu)劣。
      [0227] 以上所述僅為本發(fā)明的較佳實(shí)施例,并不用以限制本發(fā)明,凡在本發(fā)明的精神和 原則之內(nèi),所作的任何修改、等同替換、改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。
      【主權(quán)項(xiàng)】
      1. 一種基于積分匹配的快速圖像協(xié)同顯著區(qū)域監(jiān)測(cè)方法,其特征在于,所述快速圖像 協(xié)同顯著區(qū)域監(jiān)測(cè)方法包括以下步驟: 生成顯著圖,在所述顯著圖的基礎(chǔ)上建立顯著懲罰圖; 建立魯棒的色彩模型,通過(guò)所述色彩模型獲取圖像對(duì)中兩個(gè)區(qū)域的余弦相似度; 構(gòu)建高維積分匹配方法,通過(guò)所述高維積分匹配方法對(duì)最大協(xié)同顯著區(qū)域進(jìn)行檢測(cè)。2. 根據(jù)權(quán)利要求1所述的一種基于積分匹配的快速圖像協(xié)同顯著區(qū)域監(jiān)測(cè)方法,其特 征在于,所述建立魯棒的色彩模型,通過(guò)所述色彩模型獲取圖像對(duì)中兩個(gè)區(qū)域的余弦相似 度的步驟具體為: i ' = Qr/ Θ,ig/ Θ,ib/ Θ),其中 Θ = max (ir,ig,ib) W為魯棒的色彩模型中的每一個(gè)像素 ,U ig,ib為像素點(diǎn)的三個(gè)值; 兩個(gè)區(qū)域的余弦相似度為兩個(gè)區(qū)域?qū)?yīng)的直方圖分別為4和h 2。3. 根據(jù)權(quán)利要求1所述的一種基于積分匹配的快速圖像協(xié)同顯著區(qū)域監(jiān)測(cè)方法,其特 征在于,所述構(gòu)建高維積分匹配方法,通過(guò)所述高維積分匹配方法對(duì)最大協(xié)同顯著區(qū)域進(jìn) 行檢測(cè)的步驟具體為: 1) 二維積分圖的快速構(gòu)造以及矩形區(qū)域值的快速計(jì)算; 2) 在二維積分圖的基礎(chǔ)上進(jìn)行高維積分表的快速構(gòu)造以及高位矩形區(qū)域值的快速計(jì) 算; 3) 計(jì)算兩個(gè)高維區(qū)域的相似度,實(shí)現(xiàn)高維區(qū)域的積分匹配,獲取最大的協(xié)同顯著區(qū)域。
      【專利摘要】本發(fā)明公開了一種基于積分匹配的快速圖像協(xié)同顯著區(qū)域監(jiān)測(cè)方法,所述快速圖像協(xié)同顯著區(qū)域監(jiān)測(cè)方法包括以下步驟:生成顯著圖,在所述顯著圖的基礎(chǔ)上建立顯著懲罰圖;建立魯棒的色彩模型,通過(guò)所述色彩模型獲取圖像對(duì)中兩個(gè)區(qū)域的余弦相似度;構(gòu)建高維積分匹配方法,通過(guò)所述高維積分匹配方法對(duì)最大協(xié)同顯著區(qū)域進(jìn)行檢測(cè)。本發(fā)明所提出的協(xié)同顯著性檢測(cè)方法更快速、更準(zhǔn)確。
      【IPC分類】G06T7/40, G06T7/00
      【公開號(hào)】CN104899875
      【申請(qǐng)?zhí)枴緾N201510258792
      【發(fā)明人】馮偉, 尹雪飛, 陳冬冬
      【申請(qǐng)人】天津大學(xué)
      【公開日】2015年9月9日
      【申請(qǐng)日】2015年5月20日
      當(dāng)前第4頁(yè)1 2 3 4 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1