国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      基于深度學(xué)習(xí)和哈希的圖像檢索方法_2

      文檔序號(hào):9750965閱讀:來(lái)源:國(guó)知局
      距離向量中的數(shù)值按從小到大的順序進(jìn)行排序,按順序輸出對(duì)應(yīng)的原 始圖像,得到圖像檢索結(jié)果。
      [0030] 實(shí)施例二,參見(jiàn)圖1所示,一種基于深度學(xué)習(xí)和哈希的圖像檢索方法,具體包含如 下步驟:
      [0031] 步驟1.將圖像數(shù)據(jù)集及其對(duì)應(yīng)的類別標(biāo)簽信息分別對(duì)應(yīng)分成兩部分,一部分作為 訓(xùn)練樣本集,另一部分作為測(cè)試樣本集,其中,訓(xùn)練樣本集和測(cè)試樣本集中每個(gè)樣本均包括 一張圖像及對(duì)應(yīng)的類別標(biāo)簽;
      [0032] 步驟2.構(gòu)建深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)包含卷積子網(wǎng)絡(luò)、哈 希層、損失層,卷積子網(wǎng)絡(luò)包括多個(gè)卷積層,池化層和全連接層,用于學(xué)習(xí)圖像特征,哈希層 包括全連接層、激活層和閾值化層,用于學(xué)習(xí)哈希函數(shù)的構(gòu)建并得到輸入圖像的哈希碼,損 失層包括Softmax分類器損失模塊和量化誤差損失模塊,損失層損失函數(shù)為L(zhǎng) lciss = Ls〇ftmaxLoss+XLq,其中,LsoftmaxL(3ss為S〇ftmaX分類器損失t旲塊的誤差損失,Lq為量化誤差損失 模塊的誤差損失,λ為權(quán)重因子,輸入圖像通過(guò)卷積子網(wǎng)絡(luò)得到圖像特征 x(1),進(jìn)入哈希層, 假設(shè)需要生成哈希碼的長(zhǎng)度為q,全連接層將圖像特征x(1)映射為q維向量,即f(x (1))=Wx (1),其中,W表示全連接層的參數(shù)矩陣;激活成使用雙正切激活函數(shù)將q維向量映射為值域在 【-1,1】之間的9維向量,_
      _中,v = f(x(1)),參數(shù)β用于控制平滑度;閾值 化層將激活層的值進(jìn)行量化,^ ,s = tanh(f(x(1))),閾值化層的輸出為二 進(jìn)制哈希碼,用于獲得激活層輸出的連續(xù)值與閾值化層輸出的哈希碼之間誤差損失
      其中,h = g(tanh(f (xw)))為閾值化層輸出的哈希碼,x = tanh(f (xw))為 激活層輸出的連續(xù)值;Softmax分類器的誤差損失為
      其中1{.}為示性函數(shù),1 {值為真的表達(dá)式} = 1,參數(shù)9j( j = l,2,…k)是softmax回歸的參 數(shù),y(1)是圖像的類別標(biāo)簽。卷積子網(wǎng)絡(luò)可以使用AlexNet模型、NIN(Network in Network) 模型、VGG模型等;
      [0033] 步驟3.利用訓(xùn)練樣本集,依據(jù)深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),得到深度卷積神經(jīng)網(wǎng)絡(luò)模 型,深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)參數(shù)根據(jù)實(shí)際使用需求可以使用基于開(kāi)源Caffe進(jìn)行訓(xùn)練學(xué)習(xí);
      [0034] 步驟4.根據(jù)深度卷積神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練樣本集和測(cè)試樣本集中的每張圖像作 為輸入,得到訓(xùn)練樣本集的哈希碼Htrain和測(cè)試樣本集的哈希碼H test,閾值化層的輸出即為 該圖像的哈希碼;
      [0035] 步驟5.從Htest取一個(gè)測(cè)試圖像的哈希碼Ht,計(jì)算該哈希碼Ht與訓(xùn)練樣本集哈希碼 Htrain之間的漢明距離,得到漢明距離向量;
      [0036] 步驟6.漢明距離向量中的數(shù)值按從小到大的順序進(jìn)行排序,按順序輸出對(duì)應(yīng)的原 始圖像,得到圖像檢索結(jié)果。
      [0037] 本發(fā)明利用深度卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的學(xué)習(xí)能力,提取圖像深層特征,克服現(xiàn)有技 術(shù)中利用圖像底層特征而導(dǎo)致特征表達(dá)能力不強(qiáng)、檢索精度低的問(wèn)題;并引入哈希層構(gòu)造 哈希函數(shù),將圖像深度特征的學(xué)習(xí)和哈希函數(shù)的構(gòu)造在同一過(guò)程中完成,挖掘圖像特征與 哈希函數(shù)內(nèi)在關(guān)系,大大提高圖像檢索準(zhǔn)確率;將量化誤差的損失加入到深度卷積神經(jīng)網(wǎng) 絡(luò)的損失層,增強(qiáng)了哈希碼的表達(dá)能力,通過(guò)Softmax分類器損失模塊和量化誤差損失模 塊,有效降低哈希函數(shù)中的二值化造成的量化誤差,進(jìn)一步提高圖像檢索的準(zhǔn)確率。
      [0038] 本發(fā)明并不局限于上述【具體實(shí)施方式】,本領(lǐng)域技術(shù)人員還可據(jù)此做出多種變化, 但任何與本發(fā)明等同或者類似的變化都應(yīng)涵蓋在本發(fā)明權(quán)利要求的范圍內(nèi)。
      【主權(quán)項(xiàng)】
      1. 一種基于深度學(xué)習(xí)和哈希的圖像檢索方法,具體包含如下步驟: 步驟1.將圖像數(shù)據(jù)集及其對(duì)應(yīng)的類別標(biāo)簽信息分別對(duì)應(yīng)分成兩部分,一部分作為訓(xùn)練 樣本集,另一部分作為測(cè)試樣本集,其中,訓(xùn)練樣本集和測(cè)試樣本集中每個(gè)樣本均包括一張 圖像及對(duì)應(yīng)的類別標(biāo)簽; 步驟2.構(gòu)建深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)包含卷積子網(wǎng)絡(luò)、哈希層、 損失層,卷積子網(wǎng)絡(luò)用于學(xué)習(xí)圖像特征,哈希層包括全連接層、激活層和闊值化層,用于學(xué) 習(xí)哈希函數(shù)的構(gòu)建并得到輸入圖像的哈希碼,損失層包括Softmax分類器損失模塊和量化 誤差損失模塊; 步驟3.利用訓(xùn)練樣本集,依據(jù)深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),得到深度卷積神經(jīng)網(wǎng)絡(luò)模型; 步驟4.根據(jù)深度卷積神經(jīng)網(wǎng)絡(luò)模型,將訓(xùn)練樣本集和測(cè)試樣本集中的每張圖像作為輸 入,得到訓(xùn)練樣本集的哈希碼Htrain和測(cè)試樣本集的哈希碼Htest; 步驟5.從Htest取一個(gè)測(cè)試圖像的哈希碼Ht,計(jì)算該哈希碼Ht與訓(xùn)練樣本集哈希碼Htrain 之間的漢明距離,得到漢明距離向量; 步驟6.漢明距離向量中的數(shù)值按從小到大的順序進(jìn)行排序,按順序輸出對(duì)應(yīng)的原始圖 像,得到圖像檢索結(jié)果。2. 根據(jù)權(quán)利要求1所述的基于深度學(xué)習(xí)和哈希的圖像檢索方法,其特征在于:步驟2中 卷積子網(wǎng)絡(luò)包括多個(gè)卷積層,池化層和全連接層。3. 根據(jù)權(quán)利要求1所述的基于深度學(xué)習(xí)和哈希的圖像檢索方法,其特征在于:步驟2中, 輸入圖像通過(guò)卷積子網(wǎng)絡(luò)得到圖像特征xW,進(jìn)入哈希層,假設(shè)需要生成哈希碼的長(zhǎng)度為q, 全連接層將圖像特征xW映射為q維向量,即f(xW) 其中,W表示全連接層的參數(shù)矩 陣;激活成使用雙正切激活函數(shù)將q維向量映射為值域在[-1,1]之間的q維向量,即,其中,v = f(xW),參數(shù)0用于控制平滑度;闊值化層將激活層的值進(jìn)行量 化,茲詩(shī)-其中,S =化nMfUW)),闊值化層的輸出為二進(jìn)制哈希碼。4. 根據(jù)權(quán)利要求1中所述的基于深度學(xué)習(xí)和哈希的圖像檢索方法,其特征在于:步驟2 中的量化誤差損失模塊,用于獲得激活層輸出的連續(xù)值與闊值化層輸出的哈希碼之間誤差 損失其中,h = g(tanh(f (x(i>))為闊值化層輸出的哈希碼,X = tanh(f (X W))為激活層輸出的連續(xù)值。5. 根據(jù)權(quán)利要求1或4所述的基于深度學(xué)習(xí)和哈希的圖像檢索方法,其特征在于:損失 層損失函數(shù)為L(zhǎng)loss = LsoftmaxLoss+化9,其中為 Softmax分類器損失模塊的誤差損失,Lq為量化誤差損失模塊的誤差損失,A為權(quán)重因子。
      【專利摘要】本發(fā)明涉及一種基于深度學(xué)習(xí)和哈希的圖像檢索方法,利用深度卷積神經(jīng)網(wǎng)絡(luò)強(qiáng)大的學(xué)習(xí)能力,提取圖像深層特征,克服現(xiàn)有技術(shù)中利用圖像底層特征而導(dǎo)致特征表達(dá)能力不強(qiáng)、檢索精度低的問(wèn)題;并引入哈希層構(gòu)造哈希函數(shù),將圖像深度特征的學(xué)習(xí)和哈希函數(shù)的構(gòu)造在同一過(guò)程中完成,挖掘圖像特征與哈希函數(shù)內(nèi)在關(guān)系,大大提高圖像檢索準(zhǔn)確率;將量化誤差的損失加入到深度卷積神經(jīng)網(wǎng)絡(luò)的損失層,增強(qiáng)了哈希碼的表達(dá)能力,通過(guò)Softmax分類器損失模塊和量化誤差損失模塊,有效降低哈希函數(shù)中的二值化造成的量化誤差,進(jìn)一步提高圖像檢索的準(zhǔn)確率。
      【IPC分類】G06F17/30
      【公開(kāi)號(hào)】CN105512289
      【申請(qǐng)?zhí)枴緾N201510901348
      【發(fā)明人】張晨民, 趙慧琴, 彭天強(qiáng)
      【申請(qǐng)人】鄭州金惠計(jì)算機(jī)系統(tǒng)工程有限公司
      【公開(kāi)日】2016年4月20日
      【申請(qǐng)日】2015年12月7日
      當(dāng)前第2頁(yè)1 2 
      網(wǎng)友詢問(wèn)留言 已有0條留言
      • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1