国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      昆蟲聲音識別方法

      文檔序號:2823895閱讀:3411來源:國知局
      專利名稱:昆蟲聲音識別方法
      技術領域
      本發(fā)明涉及一種聲音識別方法,尤指一種昆蟲聲音的識別方法。
      背景技術
      昆蟲是最早利用聲音信號進行種內(nèi)或種間信息交流的物種,昆蟲綱34個目中有 16個目的昆蟲能發(fā)聲,聲音信號是昆蟲生命活動中與外界環(huán)境聯(lián)系的紐帶,在種內(nèi)個體間 的召喚、求偶、攻擊、報警等方面起著重要的作用。昆蟲除特定的發(fā)聲器官發(fā)出聲音外,在其 啃食、飛行等活動中也會發(fā)出聲音。大多數(shù)昆蟲發(fā)出的聲音都具有種間特異性,因此,可將 昆蟲的聲音特點作為識別昆蟲種類的依據(jù)。對昆蟲種類進行識別前,首先要采集昆蟲的聲音信號。目前,隨著電子科技的快 速發(fā)展,昆蟲研究學者對昆蟲的聲音進行實時高清晰記錄已成為可能。例如,96KHz、24bit 的Edirol R24數(shù)字錄音機成本低且采集昆蟲聲音信號效果很好。又例如,最新的Genex GX9048是世界上最先進的數(shù)字音頻錄音機,它提供了 48聲軌24bit、192KHz的PCM錄音、重 放與48聲軌DSD錄音、播放功能。目前,動物聲音分析是通過多元方差分析、判別分析或主成分分析等統(tǒng)計方法實 現(xiàn)的。隨著現(xiàn)代技術的發(fā)展,利用這些統(tǒng)計方法建立一套能夠識別分類未知聲音、測量種內(nèi) 與種間發(fā)聲變化的自動分類系統(tǒng)已成為現(xiàn)實。自動識別就是在此自動分類系統(tǒng)的基礎上 發(fā)展而來的一項重要技術,它能夠模擬和整合發(fā)聲模式的時間變化,與傳統(tǒng)的全譜圖測量 相比,它能更好地利用時域信息。利用動物聲音的自動分類系統(tǒng)主要是基于人工神經(jīng)網(wǎng)絡 (ANN)、隱式馬爾科夫模型(HMM)以及高斯混合模型(GMM)。但是,用于昆蟲的模式識別和機 器學習技術仍處于起步階段,目前,對于利用昆蟲聲音的自動分類系統(tǒng)主要是基于人工神 經(jīng)網(wǎng)絡,尤其是BP人工神經(jīng)網(wǎng)絡。人工神經(jīng)網(wǎng)絡(Artificial Neural Networks,縮寫為ANN)是一種模仿動物神經(jīng) 網(wǎng)絡行為特征進行分布式并行信息處理的算法數(shù)學模型。這種網(wǎng)絡依靠系統(tǒng)的復雜程度, 通過調(diào)整內(nèi)部大量節(jié)點之間相互連接的關系,從而達到處理信息的目的。人工神經(jīng)網(wǎng)絡具 有自學習和自適應的能力,可以通過預先提供的一批相互對應的輸入——輸出數(shù)據(jù),分析 掌握兩者之間潛在的規(guī)律,最終根據(jù)這些規(guī)律,用新的輸入數(shù)據(jù)來推算輸出結果,這種學習 分析的過程被稱為“訓練”。目前,人工神經(jīng)網(wǎng)絡已成功應用于動物聲音的自動分類識別。 例如,有關學者利用人工神經(jīng)網(wǎng)絡分別在英國直翅目中的25個種類和日本鳥的10個種類 中做了測試,前者擁有99%的識別正確率,后者擁有100%的識別正確率。目前,用于動物聲音分類識別的語音特征主要有線性預測編碼(LPC)、LPC倒譜系 數(shù)(LPCC)、摩爾頻率倒譜系數(shù)(MFCC)以及格林伍德功能倒譜系數(shù)(GFCC)。在人類語音識別 中,倒譜系數(shù)用的比較多,這是因為穩(wěn)定的倒譜系數(shù)可以得到比較好的識別性能且易提取。 在動物聲音的分類識別中,用的比較多的也是倒譜系數(shù),尤其是MFCC。MFCC將人耳的聽覺 感知特性和語音的產(chǎn)生機制相結合,因此,其在語音識別系統(tǒng)中得到了廣泛的應用。但是,在現(xiàn)今的動物聲音分類識別領域,既沒有一致的模式匹配方法,也沒有統(tǒng)一的語音特征選擇方案,特別是在昆蟲聲音的自動識別中,目前,采集、處理以及分類的主要 是蟋蟀、蟬等發(fā)聲大、易采集的鳴蟲,而沒有涉及到發(fā)聲微弱、不易采集的昆蟲,而且,目前 基于人工神經(jīng)網(wǎng)絡完成昆蟲聲音自動識別的語音特征選用的都是LPCC、LPC,甚至是頻率的 峰值,這些語音特征在識別成功率不是很高。

      發(fā)明內(nèi)容
      本發(fā)明的目的在于提供一種昆蟲聲音識別方法,該方法可通過采集的昆蟲聲音來 識別出該昆蟲所屬種類。為了達到上述目的,本發(fā)明采用了以下技術方案一種昆蟲聲音識別方法,其特征在于它包括步驟步驟一將采集到的昆蟲的聲音信號進行除噪;步驟二 將除噪后的該昆蟲的聲音信號截取成多個聲音片段,一個聲音片段內(nèi)有 一個脈沖串;步驟三對每個聲音片段進行端點檢測,檢測出聲音片段內(nèi)的有聲段和無聲段; 端點檢測后的一個聲音片段作為一個樣本;步驟四對每個樣本中的有聲段進行分幀操作,使每個樣本的有聲段具有預設的 幀數(shù);對每個樣本中的每個幀提取特征參數(shù),對提取的特征參數(shù)進行時間規(guī)整,得到識別參 數(shù);步驟五利用一部分樣本的識別參數(shù)對BP人工神經(jīng)網(wǎng)絡進行訓練,使該BP人工神 經(jīng)網(wǎng)絡認識、記憶這些識別參數(shù);步驟六將其余樣本的識別參數(shù)輸入訓練后的該BP人工神經(jīng)網(wǎng)絡,以識別出該其 余樣本中各個樣本所對應的昆蟲種類。在步驟一前包括下述聲音信號采集步驟將待采集聲音信號的昆蟲固定在隔音箱 內(nèi),該昆蟲的發(fā)生器與該隔音箱內(nèi)設置的傳感器相距一個設定距離;該傳感器采集該昆蟲 的聲音信號并將該聲音信號傳送給錄音設備進行存儲。本發(fā)明的優(yōu)點是本發(fā)明方法可通過對昆蟲聲音的處理分析來準確鑒別出昆蟲的 種類,非常實用,識別成功率高,為昆蟲學工作者等人員分辨昆蟲種類提供了可靠的依據(jù)。 本發(fā)明不僅適用于蟋蟀、蟬等發(fā)聲大、易采集的鳴蟲的種類識別,還適用于小蠹蟲等發(fā)出微 弱聲音的鞘翅目昆蟲的種類識別。


      圖1是本發(fā)明昆蟲聲音識別方法的實現(xiàn)流程圖;圖2是采集橫坑切梢小蠹蟲的一段聲音信號;圖3是采集云南切梢小蠹蟲的一段聲音信號;圖4是采集短毛切梢小蠹蟲的一段聲音信號;圖5是截取對橫坑切梢小蠹蟲所采集的聲音信號后得到的一個聲音片段;圖6是截取對云南切梢小蠹蟲所采集的聲音信號后得到的一個聲音片段;圖7是截取對短毛切梢小蠹蟲所采集的聲音信號后得到的一個聲音片段。
      具體實施例方式下面結合附圖對本發(fā)明進行詳細描述。昆蟲所發(fā)出的聲音信號屬于非平穩(wěn)信號,昆蟲每次發(fā)聲會產(chǎn)生多個脈沖組,每個 脈沖組有多個脈沖串,每個脈沖串有不同數(shù)量的單脈沖構成。如圖1所示,本發(fā)明昆蟲聲音識別方法包括以下步驟步驟一將采集到的昆蟲的聲音信號進行除噪(采用Adobe Adition 2. O進行除 噪操作);步驟二 將除噪后的該昆蟲的聲音信號截取成多個聲音片段,一個聲音片段內(nèi)有 一個脈沖串(只有一個脈沖串);步驟三對每個聲音片段(一個聲音片段由有聲段和無聲段組成)進行端點檢測, 檢測出聲音片段內(nèi)的有聲段(聲音信號非零的區(qū)域,有單脈沖)和無聲段(聲音信號為零 的區(qū)域,無單脈沖),以利于后面的分幀操作;端點檢測后的一個聲音片段作為一個樣本;步驟四對每個樣本中的有聲段進行分幀操作,使每個樣本的有聲段具有預設的 幀數(shù);對每個樣本中的每個幀提取特征參數(shù),對提取的特征參數(shù)進行時間規(guī)整,得到識別參 數(shù);步驟五利用一部分樣本(稱為訓練樣本)的識別參數(shù)對BP人工神經(jīng)網(wǎng)絡進行訓 練,使該BP人工神經(jīng)網(wǎng)絡認識、記憶這些識別參數(shù),也就是將訓練樣本所對應的昆蟲種類 特征記住;步驟六將其余樣本(稱為識別樣本)的識別參數(shù)輸入訓練后的該BP人工神經(jīng)網(wǎng) 絡,以識別出該其余樣本中各個樣本所對應的昆蟲種類。通過昆蟲聲音對昆蟲種類進行識別前,先要采集昆蟲的聲音信號,因此,在步驟一 前還包括下述聲音信號采集步驟將待采集聲音信號的昆蟲固定在能夠減少噪音干擾的隔 音箱內(nèi),使其處于脅迫壓力下發(fā)出聲音,但對其不會造成物理傷害,該昆蟲的發(fā)生器與該隔 音箱內(nèi)設置的傳感器相距一個設定距離,該設定距離一般為0. 5厘米左右;在錄制時間段 內(nèi),該傳感器采集該昆蟲的聲音信號并將該聲音信號傳送給錄音設備進行存儲。該錄音設 備可為Edirol R-4數(shù)字錄音機(DAT),配合聲望SM4001傳感器使用,錄制時的采樣頻率為 96KHz,分辨率為16bit,單聲道,音量設置到最大。上述本發(fā)明方法的操作對象可為一個昆蟲或多個昆蟲。若為多個昆蟲,該多個昆 蟲的種類可相同或不同。本發(fā)明方法可適用于所有發(fā)聲的昆蟲,例如發(fā)聲微弱的鞘翅目昆 蟲,這種鞘翅目昆蟲所發(fā)出的聲音信號為脅迫聲。在步驟四中分幀操作后,各個樣本的有聲段所具有的幀數(shù)可相同或不同;在具 有預設幀數(shù)的每個樣本中,相鄰兩個幀的設定部分區(qū)域重疊。在步驟四中,對每個樣本中的每個幀提取特征參數(shù),對提取的特征參數(shù)進行時間 規(guī)整,得到識別參數(shù)這個步驟可為提取樣本中各個幀的12維MFCC特征參數(shù)和12維一階 差分Δ MFCC特征參數(shù);,將該樣本中12維一階差分Δ MFCC特征參數(shù)不為零的那些幀的12 維MFCC特征參數(shù)和12維一階差分Δ MFCC特征參數(shù)時間規(guī)整為設定的個數(shù)。也就是說,時 間規(guī)整后的12維MFCC特征參數(shù)和12維一階差分AMFCC特征參數(shù)即為識別參數(shù)。需要提 及的是,時間規(guī)整后的12維MFCC特征參數(shù)是通過時間規(guī)整算法計算得出的,并非之前對樣 本中各個幀所求的12維MFCC特征參數(shù),相同地,時間規(guī)整后的12維一階差分AMFCC特征參數(shù)也是通過時間規(guī)整算法計算得出的,并非之前對樣本中各個幀所求的12維一階差分 AMFCC特征參數(shù)。在步驟四中,對每個樣本中的每個幀提取特征參數(shù),對提取的特征參數(shù)進行時間 規(guī)整,得到識別參數(shù)這個步驟也可為提取樣本中各個幀的12維MFCC特征參數(shù);將提取的 所有12維MFCC特征參數(shù)時間規(guī)整為設定的個數(shù)。也就是說,時間規(guī)整后的12維MFCC特 征參數(shù)即為識別參數(shù)。需要提及的是,時間規(guī)整后的12維MFCC特征參數(shù)是通過時間規(guī)整 算法計算得出的,并非之前對樣本中各個幀所求的12維MFCC特征參數(shù)。舉例下面對橫坑切梢小蠹蟲、云南切梢小蠹蟲、短毛切梢小蠹蟲三種切梢小蠹害蟲的 脅迫聲進行識別。為了方便描述,下面分別將橫坑切梢小蠹蟲、云南切梢小蠹蟲、短毛切梢 小蠹蟲稱為A蟲、B蟲、C蟲。首先,前后采集A蟲、B蟲、C蟲的一段聲音信號(脅迫聲),采集的A蟲、B蟲、C蟲 的聲音信號分別如圖2、圖3、圖4所示。A蟲、B蟲、C蟲的聲音信號均包括有多個脈沖串。然后,對圖2、圖3、圖4所示的A蟲、B蟲、C蟲的聲音信號進行除噪,將除噪后的聲 音信號截取成多個聲音片段。A蟲的聲音信號被截取成5個聲音片段,圖5為截取A蟲聲音 信號后得到的其中一個聲音片段,其內(nèi)有一個脈沖串。B蟲、C蟲的聲音信號分別被截取成 6個、5個聲音片段,圖6、圖7分別為截取B蟲、C蟲聲音信號后得到的其中一個聲音片段。然后,對A蟲、B蟲、C蟲的聲音信號所截取后得到的每個聲音片段進行端點檢測, 檢測出有聲段和首尾無聲段。如圖5至圖7,中間有單脈沖的區(qū)域為有聲段,首尾無單脈沖 的區(qū)域為無聲段。端點檢測后的一個聲音片段便是后面識別昆蟲種類所用到的一個樣本。 因此可知,本次用于昆蟲種類識別的樣本一共有16個。實際中,樣本數(shù)量隨待識別的昆蟲 而定,一般為幾百個數(shù)量級,以保證識別成功率。然后,對每個樣本中的有聲段進行分幀操作,使每個樣本的有聲段具有預設的幀 數(shù)。16個樣本的有聲段所具有的幀數(shù)可相同或不同。例如,使16個樣本的有聲段均按如下 規(guī)則分幀256個點為1幀,相鄰兩個幀間重疊128個點。分幀之后,對各個樣本中的每個幀提取12維MFCC特征參數(shù)和12維一階差分 AMFCC特征參數(shù)。然后,通過時間規(guī)整算法,對各個樣本提取的特征參數(shù)均進行時間規(guī)整, 對每個樣本的具體操作為將該樣本中12維一階差分AMFCC特征參數(shù)不為零的那些幀的 12維MFCC特征參數(shù)和12維一階差分AMFCC特征參數(shù)時間規(guī)整為4個(設定的個數(shù)), 該4個12維MFCC特征參數(shù)和4個12維一階差分Δ MFCC特征參數(shù)不是時間規(guī)整前樣本中 各個幀所求的12維MFCC特征參數(shù)、12維一階差分AMFCC特征參數(shù)。因此,每個樣本具有 4X24個識別參數(shù)(若只提取12維MFCC特征參數(shù),則每個樣本最終具有4X12個識別參 數(shù)),一個12維MFCC特征參數(shù)和與其相應的一個12維一階差分Δ MFCC特征參數(shù)為一組識 別參數(shù)。然后,利用A蟲、B蟲、C蟲樣本中的一部分樣本(訓練樣本)的識別參數(shù)(一個樣 本具有96個識別參數(shù))對BP人工神經(jīng)網(wǎng)絡進行訓練,使該BP人工神經(jīng)網(wǎng)絡認識、記憶這 些識別參數(shù),記住A蟲、B蟲、C蟲的聲音特征。最后,將A蟲、B蟲、C蟲其余樣本(識別樣本)的識別參數(shù)輸入訓練后的該BP人 工神經(jīng)網(wǎng)絡,便可識別出輸入的每個樣本所對應的昆蟲種類。
      6
      由上可知,橫坑切梢小蠹蟲、云南切梢小蠹蟲、短毛切梢小蠹蟲三種切梢小蠹害蟲 雖然在形態(tài)學上很相似,不好分辨,但是,它們的脅迫聲特征不同,因此,通過本發(fā)明方法對 它們的脅迫聲信號進行分析處理,就可識別出它們的種類,且識別成功率很高。在實際實驗中,若A蟲、B蟲、C蟲的訓練樣本均取100個,訓練次數(shù)為20000次,識 別樣本分別取54、95、54個,那么,A蟲的識別成功率可達到75. 5%,B蟲的識別成功率可達 到94. 7%, C蟲的識別成功率可達到94. 4%,由此可見,識別成功率均在75%以上,平均識 別成功率在88%以上,識別成功率很高,能夠達到各工作學者對昆蟲識別的需求。在本申請中,BP人工神經(jīng)網(wǎng)絡、時間規(guī)整算法、求取幀的12維MFCC特征參數(shù)和12 維一階差分AMFCC特征參數(shù)的算法均屬于本領域的公知技術,在這里不再詳述。BP人工神 經(jīng)網(wǎng)絡需要根據(jù)每次識別昆蟲種類的需求來相應設置輸入節(jié)點數(shù)、輸出節(jié)點數(shù)等參數(shù)。關 于時間規(guī)整算法可參考電子信息科技文獻數(shù)據(jù)庫中的《基于時間規(guī)整網(wǎng)絡的GMM說話人識 別模型的初始化方法》(沈忱、章明等著)中的相關描述。本發(fā)明方法可通過對昆蟲聲音的處理分析來準確鑒別出昆蟲的種類,非常實用, 識別成功率高,為昆蟲學工作者等人員分辨昆蟲種類提供了可靠的依據(jù)。本發(fā)明不僅適用 于蟋蟀、蟬等發(fā)聲大、易采集的鳴蟲的種類識別,還適用于小蠹蟲等發(fā)出微弱聲音的鞘翅目 昆蟲的種類識別。以上所述是本發(fā)明的較佳實施例及其所運用的技術原理,對于本領域的技術人員 來說,在不背離本發(fā)明精神和范圍的情況下,任何基于本發(fā)明技術方案基礎上的等效變換、 簡單替換等顯而易見的改變,均屬于本發(fā)明保護范圍之內(nèi)。
      權利要求
      一種昆蟲聲音識別方法,其特征在于它包括步驟步驟一將采集到的昆蟲的聲音信號進行除噪;步驟二將除噪后的該昆蟲的聲音信號截取成多個聲音片段,一個聲音片段內(nèi)有一個脈沖串;步驟三對每個聲音片段進行端點檢測,檢測出聲音片段內(nèi)的有聲段和無聲段;端點檢測后的一個聲音片段作為一個樣本;步驟四對每個樣本中的有聲段進行分幀操作,使每個樣本的有聲段具有預設的幀數(shù);對每個樣本中的每個幀提取特征參數(shù),對提取的特征參數(shù)進行時間規(guī)整,得到識別參數(shù);步驟五利用一部分樣本的識別參數(shù)對BP人工神經(jīng)網(wǎng)絡進行訓練,使該BP人工神經(jīng)網(wǎng)絡認識、記憶這些識別參數(shù);步驟六將其余樣本的識別參數(shù)輸入訓練后的該BP人工神經(jīng)網(wǎng)絡,以識別出該其余樣本中各個樣本所對應的昆蟲種類。
      2.根據(jù)權利要求1所述的昆蟲聲音識別方法,其特征在于 在所述步驟一前包括下述聲音信號采集步驟將待采集聲音信號的昆蟲固定在隔音箱內(nèi),該昆蟲的發(fā)生器與該隔音箱內(nèi)設置的傳感 器相距一個設定距離;該傳感器采集該昆蟲的聲音信號并將該聲音信號傳送給錄音設備進 行存儲。
      3.根據(jù)權利要求1所述的昆蟲聲音識別方法,其特征在于在所述步驟四中各個樣本的有聲段所具有的幀數(shù)相同或不同;在具有預設幀數(shù)的每 個樣本中,相鄰兩個幀的設定部分區(qū)域重疊。
      4.根據(jù)權利要求3所述的昆蟲聲音識別方法,其特征在于在所述步驟四中,對每個樣本中的每個幀提取特征參數(shù),對提取的特征參數(shù)進行時間 規(guī)整,得到識別參數(shù)這個步驟具體為提取樣本中各個幀的12維MFCC特征參數(shù)和12維一階差分AMFCC特征參數(shù);將該樣 本中12維一階差分AMFCC特征參數(shù)不為零的幀的12維MFCC特征參數(shù)和12維一階差分 AMFCC特征參數(shù)時間規(guī)整為設定的個數(shù)。
      5.根據(jù)權利要求3所述的昆蟲聲音識別方法,其特征在于在所述步驟四中,對每個樣本中的每個幀提取特征參數(shù),對提取的特征參數(shù)進行時間 規(guī)整,得到識別參數(shù)這個步驟具體為提取樣本中各個幀的12維MFCC特征參數(shù);將提取的所有12維MFCC特征參數(shù)時間規(guī) 整為設定的個數(shù)。
      6.根據(jù)權利要求1至5中任一項所述的昆蟲聲音識別方法,其特征在于 所述昆蟲為一個;或者,所述昆蟲為多個,多個所述昆蟲的種類相同或不同。
      7.根據(jù)權利要求6所述的昆蟲聲音識別方法,其特征在于所述昆蟲為鞘翅目昆蟲,所述聲音信號為鞘翅目昆蟲的脅迫聲。
      全文摘要
      本發(fā)明公開了一種昆蟲聲音識別方法,包括將采集到的昆蟲聲音信號進行除噪;將除噪后的昆蟲聲音信號截取成多個聲音片段,一聲音片段內(nèi)有一脈沖串;對每個聲音片段進行端點檢測;端點檢測后的一聲音片段作為一樣本;對每個樣本中的有聲段進行分幀操作,使每個樣本的有聲段具有預設的幀數(shù);對每個樣本中的每個幀提取特征參數(shù),對提取的特征參數(shù)進行時間規(guī)整,得到識別參數(shù);利用一部分樣本的識別參數(shù)對BP人工神經(jīng)網(wǎng)絡進行訓練,使BP人工神經(jīng)網(wǎng)絡認識、記憶這些識別參數(shù);將其余樣本的識別參數(shù)輸入訓練后的BP人工神經(jīng)網(wǎng)絡,以識別出該其余樣本中各個樣本所對應的昆蟲種類。本發(fā)明方法可通過對昆蟲聲音的處理分析來準確鑒別出昆蟲的種類。
      文檔編號G10L15/16GK101976564SQ201010515848
      公開日2011年2月16日 申請日期2010年10月15日 優(yōu)先權日2010年10月15日
      發(fā)明者孔祥波, 張培毅, 張真, 王鴻斌, 羅茜, 趙麗穩(wěn) 申請人:中國林業(yè)科學研究院森林生態(tài)環(huán)境與保護研究所
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1