国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      基于深度神經(jīng)元響應(yīng)模式的絕緣子紅外圖像特征表達(dá)方法與流程

      文檔序號(hào):12748504閱讀:270來(lái)源:國(guó)知局
      基于深度神經(jīng)元響應(yīng)模式的絕緣子紅外圖像特征表達(dá)方法與流程
      本發(fā)明涉及圖像分析
      技術(shù)領(lǐng)域
      ,特別是涉及一種基于深度神經(jīng)元響應(yīng)模式的絕緣子紅外圖像特征表達(dá)方法。
      背景技術(shù)
      :絕緣子是輸電線路中極其重要且大量存在的部件,起到電氣絕緣及機(jī)械支撐作用;同時(shí)又是故障多發(fā)元件,需要對(duì)其進(jìn)行周期性的檢修。隨著熱紅外技術(shù)的進(jìn)步,利用紅外熱像儀的手段對(duì)絕緣子內(nèi)部缺陷進(jìn)行診斷已在實(shí)際工作中大量運(yùn)用。為了能在海量數(shù)據(jù)中利用智能手段實(shí)現(xiàn)絕緣子紅外圖像的自動(dòng)識(shí)別與診斷,首先必須構(gòu)建針對(duì)絕緣子的有效特征表達(dá)。圖像的特征表達(dá)是圖像處理、模式識(shí)別和計(jì)算機(jī)視覺(jué)等領(lǐng)域的關(guān)鍵技術(shù),其目的在于從圖像的原始像素中提取具有代表性,獨(dú)特性,具有區(qū)分度的表示。在目標(biāo)檢測(cè),目標(biāo)追蹤,圖像分割,圖像分類等計(jì)算機(jī)視覺(jué)任務(wù)中圖像的特征表達(dá)是最基本前提,特征表達(dá)的好壞直接影響了最終的結(jié)果。長(zhǎng)期以來(lái),如何獲取圖像更出色的特征表達(dá)是學(xué)者們研究的重點(diǎn)。為了解決各種計(jì)算機(jī)視覺(jué)任務(wù),一大批基于手工設(shè)計(jì)的特征被相繼提出,從HOG(HistogramofOrientedGradient),LBP(LocalBinaryPattern),到基于局部不變特征點(diǎn)的Sift(Scale-invariantfeaturetransform),SURF(SpeededUpRobustFeatures)及其一系列改良版本如BRISK(BinaryRobustInvariantScalableKeypoints),F(xiàn)REAK(FastRetinaKeypoint)等,進(jìn)而到中層特征構(gòu)建如Bag-of-feature,F(xiàn)V(FisherVector)和VLAD(VectorofLocallyAggregatedDescriptors)等。這些特征往往為了某種特定任務(wù)而被設(shè)計(jì),并適用于固定場(chǎng)景下。而這些現(xiàn)有的方法必須根據(jù)傳感器數(shù)據(jù)圖像的特點(diǎn)分別進(jìn)行特征手工設(shè)計(jì),隨著應(yīng)用場(chǎng)景的改變?cè)O(shè)計(jì)模型也必須進(jìn)行相應(yīng)變化,極大增加了算法難度并且具有較弱的泛化性能。直接利用像素或人工特征對(duì)目標(biāo)進(jìn)行表達(dá)的,其精確性很難保證,而深度學(xué)習(xí)利用模擬視覺(jué)感知系統(tǒng)的層次結(jié)構(gòu),建立含有豐富隱層結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型,通過(guò)大量的數(shù)據(jù)訓(xùn)練,能夠?qū)W習(xí)獲得有用的本質(zhì)特征。在圖像處理任務(wù)中,深度神經(jīng)網(wǎng)絡(luò)能夠有效的對(duì)圖像進(jìn)行高層次特征表達(dá),相比于手工特征,能夠抽取更具有區(qū)分度的特征。近年來(lái),層次更深,性能更優(yōu)的網(wǎng)絡(luò)模型被不斷提出,然而僅僅利用全連接層(Fully-ConnectedLayer,FCLayer)的特征缺失了大量的局部信息,具有較差的幾何不變性。由于紅外圖像成像機(jī)理的獨(dú)特性,直接利用DCNN(DeepConvolutionNeuralNetwork)模型提取的特征會(huì)降低泛化性能。因此為了滿足紅外圖像數(shù)據(jù)分析的需要,必須基于深度神經(jīng)元響應(yīng)模式,在深度網(wǎng)絡(luò)模型之上探索更優(yōu)異,更具有泛化性的深度特征表達(dá)方法。技術(shù)實(shí)現(xiàn)要素:本發(fā)明的目的是提供一種基于深度神經(jīng)元響應(yīng)模式的絕緣子紅外圖像特征表達(dá)方法,可提高絕緣子紅外圖像特征的魯棒性。為實(shí)現(xiàn)上述目的,本發(fā)明提供了如下方案:一種基于深度神經(jīng)元響應(yīng)模式的絕緣子紅外圖像特征表達(dá)方法,所述表達(dá)方法包括:步驟一:根據(jù)深度網(wǎng)絡(luò)對(duì)輸入圖像I進(jìn)行前向傳遞;步驟二:根據(jù)所述深度網(wǎng)絡(luò)構(gòu)建深度特征模型,獲得深度絕緣子紅外特征??蛇x的,所述根據(jù)深度網(wǎng)絡(luò)對(duì)輸入圖像I進(jìn)行前向傳遞的方法包括:步驟11:對(duì)輸入的圖像提取表征深度特征的各層神經(jīng)元響應(yīng)F:F=Φ(I)(1),其中,Φ(·)為基于預(yù)訓(xùn)練網(wǎng)絡(luò)產(chǎn)生的深度網(wǎng)絡(luò)特征提取函數(shù),F(xiàn)表示輸入圖像I后前向傳遞得到的各層神經(jīng)元響應(yīng)特征集合;步驟12:基于預(yù)訓(xùn)練的深度網(wǎng)絡(luò)參數(shù),構(gòu)建深度特征增益層函數(shù)f(x)確定初級(jí)深度網(wǎng)絡(luò):f(x)=c·xc≥1---(2),]]>其中,c為常數(shù),x表示深度網(wǎng)絡(luò)神經(jīng)元響應(yīng)特征集合F中的中間層特征;步驟13:對(duì)所述初級(jí)深度網(wǎng)絡(luò)依次進(jìn)行權(quán)值壓縮及深度網(wǎng)絡(luò)剪枝,以得到改進(jìn)深度網(wǎng)絡(luò)。可選的,所述權(quán)值壓縮的方法包括:通過(guò)隨機(jī)丟失的方法對(duì)初級(jí)深度網(wǎng)絡(luò)中的深度網(wǎng)絡(luò)參數(shù)進(jìn)行隨機(jī)置零,以實(shí)現(xiàn)深度網(wǎng)絡(luò)中權(quán)值的壓縮??蛇x的,所述深度網(wǎng)絡(luò)剪枝的方法包括:在權(quán)值壓縮后,通過(guò)節(jié)點(diǎn)相似度方法計(jì)算深度網(wǎng)絡(luò)中各個(gè)節(jié)點(diǎn)的相似度;利用Jaccard方法計(jì)算深度網(wǎng)絡(luò)分支相似度sim,如式(3)所示,其中分支ci與cj的相似度閾值設(shè)為80%,sim(ci,cj)=ci∩cjci∪cj---(3);]]>根據(jù)各個(gè)節(jié)點(diǎn)的相似度將相近相似度的節(jié)點(diǎn)進(jìn)行合并,減少網(wǎng)絡(luò)的節(jié)點(diǎn)數(shù),實(shí)現(xiàn)深度網(wǎng)絡(luò)剪枝??蛇x的,所述獲得深度絕緣子紅外特征的方法包括:步驟21:根據(jù)以下公式在所述深度網(wǎng)絡(luò)中提取中層特征θ(xi)=xi,ifxi>00,ifxi<0---(4),]]>Fjl=θ(Σi=1Ml-1Fil-1*Wijl+bjl)---(5),]]>其中,為F其中一特征圖,l表示卷積層數(shù),表示第l層卷積陣列中第i行第j列的卷積核,其中i=1,...,l,j=1,...,l,表示第j列卷積的偏差,Ml-1表示第l層卷積陣列的卷積核數(shù)量,xi表示第i行卷積對(duì)應(yīng)的深度網(wǎng)絡(luò)特征值,θ(·)表示激活函數(shù);步驟22:從對(duì)應(yīng)的圖像中提取的第l層中層深度特征其可以看作為大小h×w×d三維張量組合S,其中S={s1,...,si,...,sn},n=1,...,d,sn為大小為h×w的深度特征圖,從S中抽取si;步驟23:計(jì)算各所述深度特征圖si的重要度;步驟24:按照重要度從高到低的順序,將同一層的各所述深度特征圖進(jìn)行排序,獲得重要度排名;步驟25:基于所述重要度排名,對(duì)特征圖進(jìn)行選擇,得到深度特征描述子;步驟26:根據(jù)所述深度特征描述子進(jìn)行深度特征編碼得到深度絕緣子紅外特征。可選的,所述計(jì)算所述深度特征圖的重要度的方法包括:步驟231:將深度特征圖的元素規(guī)范化到0~255整型范圍內(nèi);步驟232:根據(jù)公式(6)計(jì)算規(guī)范化的深度特征圖的圖像熵H(si):H(si)=-Σn=0255pnlog2(pn)---(6),]]>其中,pn表示灰度值n的像素出現(xiàn)的概率;步驟233:根據(jù)公式(7)計(jì)算特征圖的標(biāo)準(zhǔn)差σ(si):σ(Si)=1NΣi=1N(Oi-μ)2---(7),]]>其中,N為元素總數(shù),Oi為第i像素灰度值,μ為均值;步驟234:根據(jù)公式(8)確定特征圖si的重要度K(si):K(si)=H(si)+λσ(si)---(8),]]>其中,λ表示平衡圖像熵H(si)和標(biāo)準(zhǔn)差σ(si)的經(jīng)驗(yàn)值??蛇x的,所述對(duì)特征圖進(jìn)行選擇的方法包括:對(duì)所述重要度排名的前50%的特征圖進(jìn)行保留,后50%置零。可選的,所述根據(jù)所述深度特征描述子進(jìn)行深度特征編碼得到深度絕緣子紅外特征的方法包括:步驟261:通過(guò)聚類方法訓(xùn)練得到碼本Cl={c1,c2,...,ck},其中,該碼本為k×D矩陣,由k個(gè)D維的碼字構(gòu)成;步驟262:根據(jù)公式(9),對(duì)每一個(gè)深度特征描述子yn與所述描述子最近的碼字進(jìn)行分配,其中深度特征描述子組合為Y=(y1,y2,...,yn):c(yn)=argmincid|ci,yn|---(9),]]>其中,i=1,2,...,k;步驟263:根據(jù)公式(10),計(jì)算深度特征描述子yn與對(duì)應(yīng)碼字ci之間的殘差vil=Σs.t.NN(y)=ciyn-ci---(10);]]>步驟264:對(duì)所述殘差進(jìn)行拼接得到深度絕緣子紅外特征的表達(dá)ωl(I):ωl(I)=[v1l,...,vkl]---(11).]]>根據(jù)本發(fā)明提供的具體實(shí)施例,本發(fā)明公開(kāi)了以下技術(shù)效果:本發(fā)明基于深度神經(jīng)元響應(yīng)模式的絕緣子紅外圖像特征表達(dá)方法根據(jù)輸入的圖像挖掘出深度神經(jīng)元的響應(yīng)模式,改進(jìn)深度網(wǎng)絡(luò),構(gòu)建深度特征模型,從而確定絕緣子紅外特征,提高絕緣子紅外圖像特征的魯棒性。附圖說(shuō)明為了更清楚地說(shuō)明本發(fā)明實(shí)施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對(duì)實(shí)施例中所需要使用的附圖作簡(jiǎn)單地介紹,顯而易見(jiàn)地,下面描述中的附圖僅僅是本發(fā)明的一些實(shí)施例,對(duì)于本領(lǐng)域普通技術(shù)人員來(lái)講,在不付出創(chuàng)造性勞動(dòng)性的前提下,還可以根據(jù)這些附圖獲得其他的附圖。圖1為本發(fā)明基于深度神經(jīng)元響應(yīng)模式的絕緣子紅外圖像特征表達(dá)方法的流程圖;圖2a為本發(fā)明實(shí)施例一的輸入的絕緣子紅外圖像;圖2b為圖2a的深度卷積網(wǎng)絡(luò)神經(jīng)元響應(yīng)模式的可視化結(jié)果圖;圖3a為本發(fā)明實(shí)施例二的輸入的絕緣子紅外圖像;圖3b為圖3a的深度特征的可視化結(jié)果圖;圖4a為本發(fā)明實(shí)施例三的輸入的絕緣子紅外圖像圖;圖4b為圖4a的深度特征的可視化結(jié)果圖。具體實(shí)施方式下面將結(jié)合本發(fā)明實(shí)施例中的附圖,對(duì)本發(fā)明實(shí)施例中的技術(shù)方案進(jìn)行清楚、完整地描述,顯然,所描述的實(shí)施例僅僅是本發(fā)明一部分實(shí)施例,而不是全部的實(shí)施例?;诒景l(fā)明中的實(shí)施例,本領(lǐng)域普通技術(shù)人員在沒(méi)有做出創(chuàng)造性勞動(dòng)前提下所獲得的所有其他實(shí)施例,都屬于本發(fā)明保護(hù)的范圍。本發(fā)明的目的是提供一種基于深度神經(jīng)元響應(yīng)模式的絕緣子紅外圖像特征表達(dá)方法,根據(jù)輸入的圖像挖掘出深度神經(jīng)元的響應(yīng)模式,采用基于信息論的重要性計(jì)算排序,改進(jìn)深度網(wǎng)絡(luò),構(gòu)建深度特征模型,從而確定絕緣子紅外特征,提高絕緣子紅外圖像特征的魯棒性。為使本發(fā)明的上述目的、特征和優(yōu)點(diǎn)能夠更加明顯易懂,下面結(jié)合附圖和具體實(shí)施方式對(duì)本發(fā)明作進(jìn)一步詳細(xì)的說(shuō)明。如圖1所示,本發(fā)明一種基于深度神經(jīng)元響應(yīng)模式的絕緣子紅外圖像特征表達(dá)方法包括:步驟100:根據(jù)深度網(wǎng)絡(luò)對(duì)輸入圖像I進(jìn)行前向傳遞;步驟200:根據(jù)所述深度網(wǎng)絡(luò)構(gòu)建深度特征模型,獲得深度絕緣子紅外特征。其中,在步驟100中,所述根據(jù)深度網(wǎng)絡(luò)對(duì)輸入圖像I進(jìn)行前向傳遞的方法包括:步驟11:對(duì)輸入的圖像提取表征深度特征的各層神經(jīng)元響應(yīng)F:F=Φ(I)(1),其中,Φ(·)為基于預(yù)訓(xùn)練網(wǎng)絡(luò)產(chǎn)生的深度網(wǎng)絡(luò)特征提取函數(shù),F(xiàn)表示輸入圖像I后前向傳遞得到的各層神經(jīng)元響應(yīng)特征集合;步驟12:基于預(yù)訓(xùn)練的深度網(wǎng)絡(luò)參數(shù),構(gòu)建深度特征增益層函數(shù)f(x)確定初級(jí)深度網(wǎng)絡(luò):f(x)=c·xc≥1---(2),]]>其中,c為常數(shù),x表示深度網(wǎng)絡(luò)神經(jīng)元響應(yīng)特征集合F中的中間層特征;步驟13:對(duì)所述初級(jí)深度網(wǎng)絡(luò)依次進(jìn)行權(quán)值壓縮及深度網(wǎng)絡(luò)剪枝,以得到改進(jìn)深度網(wǎng)絡(luò)。進(jìn)一步地,在步驟13中,所述權(quán)值壓縮的方法包括:通過(guò)隨機(jī)丟失的方法對(duì)初級(jí)深度網(wǎng)絡(luò)中的深度網(wǎng)絡(luò)參數(shù)進(jìn)行隨機(jī)置零,以實(shí)現(xiàn)深度網(wǎng)絡(luò)中權(quán)值的壓縮。所述深度網(wǎng)絡(luò)剪枝的方法包括:在權(quán)值壓縮后,通過(guò)節(jié)點(diǎn)相似度方法計(jì)算深度網(wǎng)絡(luò)中各個(gè)節(jié)點(diǎn)的相似度;利用Jaccard方法計(jì)算深度網(wǎng)絡(luò)分支相似度sim,如式(3)所示,其中分支ci與cj的相似度閾值設(shè)為80%,sim(ci,cj)=ci∩cjci∪cj---(3);]]>根據(jù)各個(gè)節(jié)點(diǎn)的相似度將相近相似度的節(jié)點(diǎn)進(jìn)行合并,減少網(wǎng)絡(luò)的節(jié)點(diǎn)數(shù),實(shí)現(xiàn)深度網(wǎng)絡(luò)剪枝。在步驟200中,所述獲得深度絕緣子紅外特征的方法包括:步驟21:根據(jù)以下公式在所述深度網(wǎng)絡(luò)中提取中層特征θ(xi)=xi,ifxi>00,ifxi<0---(4),]]>Fjl=θ(Σi=1Ml-1Fil-1*Wijl+bjl)---(5),]]>其中,為F其中一特征圖,l表示卷積層數(shù),表示第l層卷積陣列中第i行第j列的卷積核,其中i=1,...,l,j=1,...,l,表示第j列卷積的偏差,Ml-1表示第l層卷積陣列的卷積核數(shù)量,xi表示第i行卷積對(duì)應(yīng)的深度網(wǎng)絡(luò)特征值,θ(·)表示激活函數(shù);步驟22:從對(duì)應(yīng)的圖像中提取的第l層中層深度特征其可以看作為大小h×w×d三維張量組合S,其中S={s1,...,si,...,sn},n=1,...,d,sn為大小為h×w的深度特征圖,從S中抽取si;步驟23:計(jì)算各所述深度特征圖si的重要度;步驟24:按照重要度從高到低的順序,將同一層的各所述深度特征圖進(jìn)行排序,獲得重要度排名;步驟25:基于所述重要度排名,對(duì)特征圖進(jìn)行選擇,得到深度特征描述子;步驟26:根據(jù)所述深度特征描述子進(jìn)行深度特征編碼得到深度絕緣子紅外特征。其中,步驟23中,所述計(jì)算所述深度特征圖的重要度的方法包括:步驟231:將深度特征圖的元素規(guī)范化到0~255整型范圍內(nèi);步驟232:根據(jù)公式(6)計(jì)算規(guī)范化的深度特征圖的圖像熵H(si):H(si)=-Σn=0255pnlog2(pn)---(6),]]>其中,pn表示灰度值n的像素出現(xiàn)的概率;步驟233:根據(jù)公式(7)計(jì)算特征圖的標(biāo)準(zhǔn)差σ(si):σ(Si)=1NΣi=1N(Oi-μ)2---(7),]]>其中,N為元素總數(shù),Oi為第i像素灰度值,μ為均值;步驟234:根據(jù)公式(8)確定特征圖si的重要度K(si):K(si)=H(si)+λσ(si)---(8),]]>其中,λ表示平衡圖像熵H(si)和標(biāo)準(zhǔn)差σ(si)的經(jīng)驗(yàn)值。其中,步驟25中,所述對(duì)特征圖進(jìn)行選擇的方法包括:對(duì)所述重要度排名的前50%的特征圖進(jìn)行保留,后50%置零。在步驟26中,所述根據(jù)所述深度特征描述子進(jìn)行深度特征編碼得到深度絕緣子紅外特征的方法包括:步驟261:通過(guò)聚類方法訓(xùn)練得到碼本Cl={c1,c2,...,ck},其中,該碼本為k×D矩陣,由k個(gè)D維的碼字構(gòu)成;步驟262:根據(jù)公式(9),對(duì)每一個(gè)深度特征描述子yn與所述描述子最近的碼字進(jìn)行分配,其中深度特征描述子組合為Y=(y1,y2,...,yn):c(yn)=argmincid|ci,yn|---(9),]]>其中,i=1,2,...,k;步驟263:根據(jù)公式(10),計(jì)算深度特征描述子yn與對(duì)應(yīng)碼字ci之間的殘差vil=Σs.t.NN(y)=ciyn-ci---(10);]]>步驟264:對(duì)所述殘差進(jìn)行拼接得到深度絕緣子紅外特征的表達(dá)ωl(I):ωl(I)=[v1l,...,vkl]---(11).]]>本發(fā)明首先從深度神經(jīng)網(wǎng)絡(luò)獲得深度神經(jīng)元響應(yīng),然后采用基于信息論的重要性計(jì)算排名,挖掘出深度神經(jīng)元的響應(yīng)模式,改進(jìn)深度網(wǎng)絡(luò)模型,從而構(gòu)建絕緣子紅外特征;解決了處理紅外圖像特征魯棒性差的問(wèn)題;該發(fā)明切實(shí)可行,對(duì)相關(guān)問(wèn)題的方案設(shè)計(jì)有一定的借鑒意義。下面以具體實(shí)施例,進(jìn)行詳細(xì)介紹:本實(shí)施例中,首先采用基于預(yù)訓(xùn)練的深度模型對(duì)輸入圖像進(jìn)行特征提取,原始圖像如圖2a所示,初級(jí)深度網(wǎng)絡(luò)模型為VGG-16,深度卷積網(wǎng)絡(luò)神經(jīng)元響應(yīng)模式下可視化結(jié)果如圖2b所示。利用改進(jìn)的深度網(wǎng)絡(luò)對(duì)絕緣子紅外圖像進(jìn)行深度特征表達(dá),其中初級(jí)深度網(wǎng)絡(luò)模型為VGG-16,特征增益層位于第5層與第6層之間,n=6,增益常量c=5。輸入圖像分別如3a、4a所示,然后從利用特征圖重要度排序?qū)μ卣鲌D進(jìn)行選擇,其中λ=0.01;再根據(jù)選擇結(jié)果提取深度特征描述子;最后利用碼本對(duì)深度特征進(jìn)行量化、編碼,從而得到深度絕緣子紅外圖像特征表達(dá)。得到深度特征,其可視化結(jié)果分別如圖3b、4b所示。從結(jié)果發(fā)現(xiàn),本發(fā)明可以有效地挖掘出紅外圖像中基于深度網(wǎng)絡(luò)的特征表達(dá)。本說(shuō)明書(shū)中各個(gè)實(shí)施例采用遞進(jìn)的方式描述,每個(gè)實(shí)施例重點(diǎn)說(shuō)明的都是與其他實(shí)施例的不同之處,各個(gè)實(shí)施例之間相同相似部分互相參見(jiàn)即可。本文中應(yīng)用了具體個(gè)例對(duì)本發(fā)明的原理及實(shí)施方式進(jìn)行了闡述,以上實(shí)施例的說(shuō)明只是用于幫助理解本發(fā)明的方法及其核心思想;同時(shí),對(duì)于本領(lǐng)域的一般技術(shù)人員,依據(jù)本發(fā)明的思想,在具體實(shí)施方式及應(yīng)用范圍上均會(huì)有改變之處。綜上所述,本說(shuō)明書(shū)內(nèi)容不應(yīng)理解為對(duì)本發(fā)明的限制。當(dāng)前第1頁(yè)1 2 3 
      當(dāng)前第1頁(yè)1 2 3 
      網(wǎng)友詢問(wèn)留言 已有0條留言
      • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1