国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于AdaBoost的弱分類器內(nèi)部結(jié)構(gòu)調(diào)整方法

      文檔序號(hào):6597192閱讀:186來源:國(guó)知局
      專利名稱:一種基于AdaBoost的弱分類器內(nèi)部結(jié)構(gòu)調(diào)整方法
      技術(shù)領(lǐng)域
      本發(fā)明屬于目標(biāo)檢測(cè)技術(shù)領(lǐng)域,特別是一種基于AdaBoost的弱分類器內(nèi)部結(jié)構(gòu)調(diào)整方法。
      背景技術(shù)
      目標(biāo)的檢測(cè)識(shí)別方法很多,大致可分為基于區(qū)域的模板匹配檢測(cè)方法和基于特征的匹配檢測(cè)方法。基于區(qū)域的圖像模板匹配能利用目標(biāo)圖像中的所有信息,對(duì)目標(biāo)對(duì)象的識(shí)別能力強(qiáng)、精度高,但對(duì)旋轉(zhuǎn)和縮放(非本質(zhì)變化)目標(biāo)圖像的識(shí)別能力較差。圖像特征匹配具有穩(wěn)定性好、易于實(shí)現(xiàn)、匹配效率高、對(duì)圖像的旋轉(zhuǎn)和縮放小敏感、抗噪性能好等特點(diǎn),但是計(jì)算量大,檢測(cè)效果與選取的特征直接相關(guān)。Boosting 方法是由 Freund 和 Schapire 在 1990 年提出的(1.Schapire R E.The Strength of Weak Learnability[J].Machine Learning, 1990, 5(2): 197-227.),是提高預(yù)測(cè)學(xué)習(xí)系統(tǒng)的預(yù)測(cè)能力的有效工具之一,它試圖提供一種提升學(xué)習(xí)算法精度的普遍方法。隨后,F(xiàn)reund提出了一種效率更高的Boosting算法(2.Freund Y.Boostinga weak Learning Algorithm by Majority[J].1nformation and Computation 1995,121 (2): 256-285.)。1995· 年,F(xiàn)reund 和 Schapire 提出了 AdaBoost 算法(3.Freund Y.,Schapire R.Ε..A Decision-Theoretic Generalization of On-Line Learning andan Application to Boosting[J].Journal of Computer and System Sciences, 1995,55(1): 119-139.),AdaBoost算法是Boosting家族的代表算法,它本身是通過改變數(shù)據(jù)分布來實(shí)現(xiàn)的。它根據(jù)每輪訓(xùn)練中每個(gè)樣本的分類是否正確,以及上輪的總體分類準(zhǔn)確率,來確定每個(gè)樣本的權(quán)值。將每次訓(xùn)練得到的弱分類器融合起來,作為最后的決策分類器。AdaBoost算法提出后在機(jī)器學(xué)習(xí)領(lǐng)域受到了極大的關(guān)注,實(shí)驗(yàn)結(jié)果顯示無(wú)論是應(yīng)用于人造數(shù)據(jù)還是真實(shí)數(shù)據(jù),AdaBoost都能顯著提高學(xué)習(xí)精度。該類方法雖然實(shí)時(shí)性較好,識(shí)別率高且誤識(shí)別率低,但是該類方法訓(xùn)練樣本時(shí),一旦選擇好弱分類器,弱分類器內(nèi)部結(jié)構(gòu)就不再變化,無(wú)法減小性能差(正確率低、誤檢率高)的弱分類器對(duì)最終檢測(cè)的影響,且訓(xùn)練樣本非常大時(shí),訓(xùn)練弱分類器所需時(shí)間過長(zhǎng)。

      發(fā)明內(nèi)容
      本發(fā)明的目的在于提供一種基于AdaBoost的弱分類器內(nèi)部結(jié)構(gòu)調(diào)整方法,從而減小性能差的弱分類器對(duì)最終檢測(cè)的影響,提高場(chǎng)景分類的正確率和降低誤檢率。實(shí)現(xiàn)本發(fā)明目的的技術(shù)解決方案為:一種基于AdaBoost的弱分類器內(nèi)部結(jié)構(gòu)調(diào)整方法,包括以下步驟:步驟一:訓(xùn)練弱分類器,通過加權(quán)訓(xùn)練樣本決定訓(xùn)練的弱分類器的融合權(quán)重,每個(gè)弱分類器對(duì)輸入樣本輸出一個(gè)弱假設(shè),所有弱分類器組成一個(gè)強(qiáng)分類器并輸出最終結(jié)果;步驟二:對(duì)弱分類器進(jìn)行內(nèi)部結(jié)構(gòu)調(diào)整,每個(gè)弱分類器的調(diào)整是由一個(gè)調(diào)整向量β和一個(gè)偏移向量Π決定的,它們的維數(shù)都是IXN維,N為多級(jí)弱分類器的數(shù)目,按
      權(quán)利要求
      1.一種基于AdaBoost的弱分類器內(nèi)部結(jié)構(gòu)調(diào)整方法,其特征在于包括以下步驟: 步驟一:訓(xùn)練弱分類器,通過加權(quán)訓(xùn)練樣本決定訓(xùn)練的弱分類器的融合權(quán)重,每個(gè)弱分類器對(duì)輸入樣本輸出一個(gè)弱假設(shè),所有弱分類器組成一個(gè)強(qiáng)分類器并輸出最終結(jié)果; 步驟二:對(duì)弱分類器進(jìn)行內(nèi)部結(jié)構(gòu)調(diào)整,每個(gè)弱分類器的調(diào)整是由一個(gè)調(diào)整向量β和一個(gè)偏移向量η決定的,它們的維數(shù)都是IXN維,N為多級(jí)弱分類器的數(shù)目,按Ir (-V, y) = P- (H; (-V) - n- ),JE7 = {1,.. N}進(jìn)行調(diào)整; 步驟三:對(duì)內(nèi)部結(jié)構(gòu)調(diào)整后的弱分類器進(jìn)行最佳參數(shù)選擇,利用遺傳算法來選取最佳參數(shù); 步驟四:調(diào)整過的弱分類器進(jìn)行驗(yàn)證,即滿足一個(gè)設(shè)定的閾值,具體為對(duì)于m個(gè)樣本,調(diào)整驗(yàn)證計(jì)算方式如下:
      2.根據(jù)權(quán)利要求1所述的基于AdaBoost的弱分類器內(nèi)部結(jié)構(gòu)調(diào)整方法,特征在于步驟一中,弱分類器訓(xùn)練的步驟為:首先,給定訓(xùn)練數(shù)據(jù)集 D=Kx1, Y1), (x2, y2),…,(xm, ym)} Xi e X,yi e ={1,..., k}, X 代表樣本空間,Y代表類別標(biāo)簽,m為樣本數(shù)量,k為類別數(shù)量;其次,給所有的訓(xùn)練樣本賦予相同的權(quán)值,第t輪迭代過程中的權(quán)值分布為Dt,初始化權(quán)值D1(I)=IAi,第一次迭代時(shí)每個(gè)樣本的權(quán)值都為Ι/m ;在訓(xùn)練數(shù)據(jù)集和初始權(quán)值D1Q)下訓(xùn)練,得到一個(gè)弱假設(shè)ht:X —Y,X代表樣本空間,Y代表類別標(biāo)簽,t為當(dāng)前迭代輪數(shù);然后使用訓(xùn)練數(shù)據(jù)測(cè)試ht,計(jì)算ht的錯(cuò)誤率ε t= Σ Dt⑴[ht (Xi) Φ Yi],如果ε t > 1/2,則T=t_l,退出循環(huán);設(shè)ht的權(quán)重為:a t= ε t/(l_ ε t),根據(jù)公式
      3.根據(jù)權(quán)利要求1所述的基于AdaBoost的弱分類器內(nèi)部結(jié)構(gòu)調(diào)整方法,特征在于步驟二中的內(nèi)部結(jié)構(gòu)調(diào)整方法為:最終的分類器由M個(gè)強(qiáng)分類器級(jí)聯(lián)組成,每個(gè)強(qiáng)分類器由N個(gè)弱分類器組成, i f〉代表第q級(jí)強(qiáng)分類器對(duì)輸入樣本的響應(yīng)向量,< 代表第q級(jí)強(qiáng)分類器中相對(duì)應(yīng)的第k級(jí)弱分類器對(duì)輸入樣本的響應(yīng),其中,q=l,一,M,k=l, - ,N, Ck代表每個(gè)強(qiáng)分類器中的第k級(jí)弱分類器,內(nèi)部結(jié)構(gòu)調(diào)整向量八…最佳偏移向量%=〈<...,<〉,假設(shè)ht(x,y)是第t級(jí)內(nèi)部結(jié)構(gòu)調(diào)整過的弱分類器的分類, =1,...,Μ,則
      4.根據(jù)權(quán)利要求1所述的基于AdaBoost的弱分類器內(nèi)部結(jié)構(gòu)調(diào)整方法,特征在于步驟三中利用遺傳算法來選取最佳參數(shù),設(shè)定調(diào)整向量β的范圍為
      ,偏移向量η的范圍為[-0.2,0.2],具體實(shí)現(xiàn)步驟如下: (1)初始化遺傳算法參數(shù),交叉概率Pc=0.8,變異概率Pm=0.05,群體大小Ps=400,最大迭代次數(shù)Im=50000,最小誤差變化Em=10_6,初始進(jìn)化種群代數(shù)t=l ; (2)生成Ps個(gè)體,并編碼成染色體; (3)根據(jù)方程
      全文摘要
      本發(fā)明公開了一種基于AdaBoost的弱分類器內(nèi)部結(jié)構(gòu)調(diào)整方法,首先是訓(xùn)練弱分類器,通過加權(quán)訓(xùn)練樣本決定訓(xùn)練的弱分類器的融合權(quán)重,每個(gè)弱分類器對(duì)輸入樣本輸出一個(gè)弱假設(shè),所有弱分類器組成一個(gè)強(qiáng)分類器并輸出最終結(jié)果;其次是內(nèi)部結(jié)構(gòu)調(diào)整、最佳弱分類器參數(shù)選擇和調(diào)整驗(yàn)證,然后利用遺傳算法來解決最優(yōu)化問題,最后是訓(xùn)練樣本重新加權(quán),根據(jù)訓(xùn)練樣本的錯(cuò)誤率高低來重新確定樣本的權(quán)重。本發(fā)明在場(chǎng)景分類問題上有非常好的表現(xiàn),分辨率高,誤判率低。
      文檔編號(hào)G06K9/66GK103246897SQ20131020533
      公開日2013年8月14日 申請(qǐng)日期2013年5月27日 優(yōu)先權(quán)日2013年5月27日
      發(fā)明者錢惟賢, 楊力, 胡楷, 周霞, 任建樂, 顧國(guó)華, 陳錢, 路東明, 隋修寶 申請(qǐng)人:南京理工大學(xué)
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1