一種基于混合神經(jīng)網(wǎng)絡(luò)算法的用于復(fù)雜工業(yè)產(chǎn)品性能評(píng)估方法
【專利摘要】本發(fā)明公開(kāi)了一種基于混合神經(jīng)網(wǎng)絡(luò)算法的用于復(fù)雜工業(yè)產(chǎn)品性能評(píng)估方法。首先確定HNN結(jié)構(gòu)參數(shù);其次初始化每層神經(jīng)元連接權(quán)重和隸屬度函數(shù)特征點(diǎn),設(shè)置誤差限值、迭代次數(shù),學(xué)習(xí)速率和動(dòng)量因子;然后將輸入的模糊樣本數(shù)據(jù)進(jìn)行量化和歸一化,定量數(shù)值進(jìn)行歸一化;在反復(fù)迭代中計(jì)算各層神經(jīng)元學(xué)習(xí)誤差導(dǎo)數(shù)、修正連接權(quán)重、采用一種梯度下降方法調(diào)整隸屬度度特征點(diǎn);反復(fù)迭代直至達(dá)到設(shè)定誤差,最后HNN算法給出該復(fù)雜工業(yè)產(chǎn)品定量的性能預(yù)測(cè)結(jié)果。該HNN算法為實(shí)際情況中基于定性、定量、定性定量結(jié)合的三種數(shù)據(jù)輸入、輸入數(shù)據(jù)項(xiàng)維數(shù)可能不同的復(fù)雜工業(yè)性能評(píng)估問(wèn)題提供一種具有良好預(yù)測(cè)準(zhǔn)確度的解決方案。
【專利說(shuō)明】
一種基于混合神經(jīng)網(wǎng)絡(luò)算法的用于復(fù)雜工業(yè)產(chǎn)品性能評(píng)估 方法
技術(shù)領(lǐng)域
[0001] 本發(fā)明屬于計(jì)算機(jī)仿真、算法優(yōu)化領(lǐng)域,涉及一種基于混合神經(jīng)網(wǎng)絡(luò)(HNN)算法的 用于復(fù)雜工業(yè)產(chǎn)品性能評(píng)估方法。
【背景技術(shù)】
[0002] 復(fù)雜工業(yè)產(chǎn)品通常是一個(gè)執(zhí)行特定功能的綜合系統(tǒng),或一些協(xié)同工作單元的組合 體。隨著科學(xué)技術(shù)的發(fā)展,產(chǎn)品的復(fù)雜度提高,相應(yīng)的研究和生產(chǎn)費(fèi)用也隨之增加。典型的 復(fù)雜產(chǎn)品有飛行器、復(fù)雜機(jī)械電子產(chǎn)品、汽車、武器裝備系統(tǒng)等。在工業(yè)產(chǎn)品的開(kāi)發(fā)和生產(chǎn) 過(guò)程中,如何有效地評(píng)估產(chǎn)品(尤其是復(fù)雜工業(yè)產(chǎn)品)的性能有著重大的現(xiàn)實(shí)和經(jīng)濟(jì)意義。 通過(guò)產(chǎn)品的性能評(píng)估,可以選擇和設(shè)計(jì)出具有較好性能和較少費(fèi)用的產(chǎn)品。但是,由于每一 種工業(yè)產(chǎn)品都有其特有的性能指標(biāo)要求和獨(dú)有的特征數(shù)據(jù)形式,因此找到一個(gè)具有廣泛適 用性的性能評(píng)估算法對(duì)這些復(fù)雜工業(yè)產(chǎn)品進(jìn)行性能評(píng)估就顯得十分重要,同時(shí)也比較困 難。
[0003] 復(fù)雜工業(yè)產(chǎn)品的性能評(píng)估問(wèn)題是一個(gè)由定性、定量因素組成的決策問(wèn)題。大多數(shù) 傳統(tǒng)的多指標(biāo)性能評(píng)估算法是基于機(jī)理的,如Bayes、Bootstrap等的統(tǒng)計(jì)學(xué)方法在產(chǎn)品性 能評(píng)估數(shù)據(jù)不充分時(shí)比較適用,Bayes依賴于先驗(yàn)信息,而先驗(yàn)知識(shí)的選擇帶有主觀性; Bootstrap獲得的評(píng)估結(jié)果可信度不高,尤其是在原始樣本非常小時(shí)?;谥笜?biāo)體系的評(píng)估 方法,如Delphi、AHP、因素分析法、熵評(píng)價(jià)法等也有廣泛的應(yīng)用,此類方法中專家打分易于 操作,但難以消除人為因素和模糊隨機(jī)性的影響。這些基于機(jī)理的評(píng)估方法要求對(duì)產(chǎn)品的 結(jié)構(gòu)、材料及配比、性能評(píng)估參考的某些標(biāo)準(zhǔn)等詳細(xì)信息具有充分的掌握。
[0004] 因此許多學(xué)者開(kāi)始研究基于數(shù)據(jù)的性能評(píng)估算法,如神經(jīng)網(wǎng)絡(luò)算法、模塊化神經(jīng) 網(wǎng)絡(luò)、模糊神經(jīng)網(wǎng)絡(luò)、隸屬度網(wǎng)絡(luò)等,相比于基于機(jī)理的算法,它們能夠利用訓(xùn)練好的網(wǎng)絡(luò) 預(yù)測(cè)產(chǎn)品的性能而不需要掌握、分析產(chǎn)品的詳細(xì)信息。這些優(yōu)化算法,為解決復(fù)雜工業(yè)產(chǎn)品 評(píng)估時(shí)存在的大量不確定、模糊性數(shù)據(jù)等問(wèn)題提供了新的思路和手段。然而傳統(tǒng)的神經(jīng)網(wǎng) 絡(luò)易陷入局部收斂且收斂緩慢。模塊化神經(jīng)網(wǎng)絡(luò),將模糊隸屬度網(wǎng)絡(luò)和神經(jīng)網(wǎng)絡(luò)結(jié)合在一 起,克服了傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的局限,具有訓(xùn)練時(shí)間短、預(yù)測(cè)準(zhǔn)確度高的優(yōu)勢(shì)。模糊神經(jīng)網(wǎng)絡(luò)將 神經(jīng)網(wǎng)絡(luò)和模糊邏輯結(jié)合在一起,可以有效地處理模糊信息。對(duì)于大多數(shù)模糊決策問(wèn)題,關(guān) 鍵在于決策參數(shù)的確定,而這些決策參數(shù)是可以通過(guò)確定隸屬度函數(shù)來(lái)確定的。目前GA、Hc" 等已應(yīng)用于不同問(wèn)題中的隸屬度函數(shù)參數(shù)優(yōu)化,但這些方法中,隸屬度函數(shù)的調(diào)整和方法 參數(shù)的更新未能動(dòng)態(tài)地結(jié)合起來(lái),這對(duì)具體的應(yīng)用帶來(lái)了復(fù)雜度和難度。
【發(fā)明內(nèi)容】
[0005] 本發(fā)明的目的是為了解決復(fù)雜工業(yè)產(chǎn)品性能估過(guò)程中產(chǎn)品輸入數(shù)據(jù)類型不同和 數(shù)量不確定的問(wèn)題,提出一種基于HNN算法的用于復(fù)雜工業(yè)產(chǎn)品性能評(píng)估方法。HNN算法將 模塊化神經(jīng)網(wǎng)絡(luò)和隸屬度網(wǎng)絡(luò)結(jié)合起來(lái),是一種基于數(shù)據(jù)的算法。
[0006] 本發(fā)明的該種基于HNN算法的用于復(fù)雜工業(yè)產(chǎn)品性能評(píng)估方法,包括以下幾個(gè)步 驟:
[0007] 步驟一:根據(jù)輸入的復(fù)雜工業(yè)產(chǎn)品的性能數(shù)據(jù)屬性,確定HNN結(jié)構(gòu)參數(shù);
[0008] 步驟二:初始化HNN權(quán)重和模糊輸入對(duì)應(yīng)的隸屬度網(wǎng)絡(luò)模塊中的隸屬度函數(shù)特征 點(diǎn)、HNN學(xué)習(xí)速率和動(dòng)量因子;
[0009] 步驟三:量化并歸一化每一個(gè)模糊輸入;歸一化每一個(gè)量化的輸入數(shù)據(jù);
[0010]步驟四:獲得對(duì)應(yīng)輸入數(shù)據(jù)的本次定量預(yù)測(cè)結(jié)果;
[0011] 步驟五:判斷HNN預(yù)測(cè)誤差是否達(dá)到了設(shè)定的誤差限值,若未達(dá)到,則進(jìn)行步驟六, 若達(dá)到,則進(jìn)行步驟九;
[0012]步驟六:采用BP神經(jīng)網(wǎng)絡(luò)監(jiān)督學(xué)習(xí)方式來(lái)求解各層神經(jīng)元的學(xué)習(xí)誤差導(dǎo)數(shù);
[0013]步驟七:修正各層網(wǎng)絡(luò)中神經(jīng)元的連接權(quán)重;
[0014] 步驟八:調(diào)整隸屬度函數(shù)的特征點(diǎn);
[0015] 步驟九:根據(jù)復(fù)雜工業(yè)產(chǎn)品性能數(shù)據(jù)對(duì)應(yīng)的性能評(píng)定結(jié)果等級(jí),若預(yù)測(cè)誤差達(dá)到 了誤差設(shè)定值,HNN則給出0到1之間的對(duì)應(yīng)的量化預(yù)測(cè)結(jié)果,若未達(dá)到,則返回步驟四。
[0016] 本發(fā)明的優(yōu)點(diǎn)在于:
[0017] (1)本發(fā)明以復(fù)雜工業(yè)產(chǎn)品性能評(píng)估為目標(biāo),支持定性型、定量型、定性定量結(jié)合 型三種數(shù)據(jù)的輸入,同時(shí),允許輸入數(shù)據(jù)項(xiàng)的維數(shù)(即輸入數(shù)據(jù)項(xiàng)的個(gè)數(shù))不同;
[0018] (2)在傳統(tǒng)的性能評(píng)估算法中,輸入數(shù)據(jù)一般必須是歸一化后的數(shù)據(jù)項(xiàng),并且要按 一定的順序輸入。在HNN算法中,輸入的數(shù)據(jù)可以直接是模糊型的或差異比較大的確定型的 數(shù)據(jù)項(xiàng),而且其預(yù)測(cè)結(jié)果不受樣本數(shù)據(jù)項(xiàng)輸入順序的影響;
[0019] (3)本發(fā)明對(duì)于數(shù)據(jù)輸入維數(shù)具有累加性,新的數(shù)據(jù)項(xiàng)可以直接輸入到HNN算法并 得到它的預(yù)測(cè)結(jié)果而不用重新運(yùn)行整個(gè)網(wǎng)絡(luò);
[0020] (4)本發(fā)明中隸屬度特征點(diǎn)的梯度下降調(diào)整法是基于HNN網(wǎng)絡(luò)誤差的變化,它可以 動(dòng)態(tài)的優(yōu)化HNN算法。同時(shí),也為其他模糊神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)優(yōu)化提供了一種算法;
[0021] (5)本發(fā)明中各層神經(jīng)元的連接權(quán)重修正方法避免了人為確定權(quán)重時(shí)的主觀性影 響,同時(shí)防止工業(yè)實(shí)際中權(quán)重經(jīng)常由易于產(chǎn)生的數(shù)值完全決定的情況發(fā)生;
[0022] (6)本發(fā)明可以應(yīng)用于其他基于訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集、有不同定性、定量輸入 數(shù)據(jù)的復(fù)雜產(chǎn)品性能評(píng)估中。
【附圖說(shuō)明】
[0023] 圖1為HNN應(yīng)用流程;
[0024] 圖2為HNN結(jié)構(gòu);
[0025]圖3為模塊化神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu);
[0026]圖4為隸屬度網(wǎng)絡(luò);
[0027]圖5為模糊集合及相應(yīng)隸屬度函數(shù)特征點(diǎn);
[0028]圖6為三種數(shù)據(jù)輸入情況下的HNN訓(xùn)練和測(cè)試流程。
【具體實(shí)施方式】
[0029]下面將結(jié)合附圖和實(shí)施例對(duì)本發(fā)明作進(jìn)一步的詳細(xì)說(shuō)明。
[0030]本發(fā)明是一種基于HNN算法的用于復(fù)雜工業(yè)產(chǎn)品性能評(píng)估方法,其應(yīng)用流程如圖1 所示,包括以下幾個(gè)步驟:
[0031 ]步驟一:根據(jù)輸入的復(fù)雜工業(yè)產(chǎn)品的性能數(shù)據(jù)屬性,確定HNN結(jié)構(gòu)參數(shù)。
[0032]由于工業(yè)產(chǎn)品的復(fù)雜性和多樣性,其性能評(píng)估數(shù)據(jù)具有數(shù)量不確定性以及形式多 樣性的特點(diǎn),可以劃分為確定值和模糊值兩種類型。HNN結(jié)合了隸屬度神經(jīng)網(wǎng)絡(luò)和模塊化神 經(jīng)網(wǎng)絡(luò),它能夠處理模糊輸入、確定值輸入及其輸入個(gè)數(shù)不確定的問(wèn)題,其結(jié)構(gòu)如圖2所示。 [0033] HNN的結(jié)構(gòu)是由各層的神經(jīng)元個(gè)數(shù)、激活函數(shù)及其學(xué)習(xí)算法決定的。輸入層采用模 塊化的形式,若輸入數(shù)據(jù)是模糊型的數(shù)據(jù),該層只包含隸屬度網(wǎng)絡(luò)來(lái)處理模糊數(shù)據(jù);若輸入 數(shù)據(jù)是量化的數(shù)據(jù),該層只有"量化輸入"模塊;若輸入數(shù)據(jù)包含以上兩種類型的數(shù)據(jù),則該 層同時(shí)包含隸屬度網(wǎng)絡(luò)模塊和"量化輸入"模塊。中間層神經(jīng)元激活激勵(lì)函數(shù)并進(jìn)行神經(jīng)元 權(quán)重的計(jì)算和更新。輸出層最終輸出預(yù)測(cè)結(jié)果,體和y k分別表示實(shí)際結(jié)果和HNN的預(yù)測(cè)輸出 結(jié)果。若預(yù)測(cè)值和實(shí)際值不相符,則輸出誤差eyi,e y2, . . .,eyN〇由HNN輸出層到輸入層逐層反 向傳播,然后信號(hào)再由輸入層至中間層至輸出層逐層正向傳播,反復(fù)迭代直至滿足一定的 要求。
[0034] HNN各層神經(jīng)元數(shù)量設(shè)置如表1所示。
[0035] 表1 HNN各層神經(jīng)元數(shù)量
[0037] 1)模塊化神經(jīng)網(wǎng)絡(luò)
[0038]從HNN輸入層的一個(gè)神經(jīng)元出發(fā),到中間層,再到輸出層,就是一個(gè)模塊化神經(jīng)網(wǎng) 絡(luò)子模塊,可記為:"神經(jīng)網(wǎng)絡(luò)子模塊Γ,"神經(jīng)網(wǎng)絡(luò)子模塊2",···,"神經(jīng)網(wǎng)絡(luò)子模塊,+#"。 模塊化神經(jīng)網(wǎng)絡(luò)是由多個(gè)相互聯(lián)系又獨(dú)立的子神經(jīng)網(wǎng)絡(luò)構(gòu)成的網(wǎng)絡(luò)系統(tǒng),各個(gè)子模塊均有 各自的逼近任務(wù),從而處理HNN中不同類型的信息輸入。所有子模塊進(jìn)行集成得到與HNN算 法輸出相對(duì)應(yīng)的模塊化神經(jīng)網(wǎng)絡(luò)輸出。模塊化神經(jīng)網(wǎng)絡(luò)用于解決HNN中輸入個(gè)數(shù)不確定的 問(wèn)題,結(jié)構(gòu)如圖3所示。
[0039] 2)隸屬度網(wǎng)絡(luò)
[0040] 隸屬度網(wǎng)絡(luò)用于HNN算法輸入數(shù)據(jù)中模糊信息的處理,模糊輸入經(jīng)過(guò)隸屬度網(wǎng)絡(luò) 可以轉(zhuǎn)化為帶有隸屬度信息的定量值,如圖4所示。
[0041] 本發(fā)明中的隸屬度網(wǎng)絡(luò)在傳統(tǒng)隸屬度網(wǎng)絡(luò)上增加了空白層,包含輸入層、隸屬度 層、中間層、空白層和輸出層。其中,輸入層用來(lái)量化和歸一化模糊型參數(shù)輸入;隸屬度層進(jìn) 行模糊化和模糊規(guī)則的推理;空白層將隸屬度層看成由輸入層到空白神經(jīng)元層的權(quán)重,是 為了步驟八中隸屬度特征點(diǎn)的調(diào)整;中間層包含四個(gè)神經(jīng)元進(jìn)行反模糊化;輸出層為隸屬 度網(wǎng)絡(luò)的定量輸出。
[0042]隸屬度網(wǎng)絡(luò)的隸屬度層包含三個(gè)神經(jīng)元(小、中、大),激勵(lì)函數(shù)由梯形隸屬度函數(shù) 表示,隸屬度函數(shù)的最終形式由其特征點(diǎn)msp0,mspl,. . .,msp7決定,如圖5所示。隸屬度網(wǎng) 絡(luò)中間層和輸出層神經(jīng)元的激勵(lì)函數(shù)采用Sigmoid函數(shù),斜坡參數(shù)設(shè)為1,表達(dá)式為
[0044] 步驟二:初始化HNN權(quán)重和模糊輸入對(duì)應(yīng)的隸屬度網(wǎng)絡(luò)模塊中的隸屬度函數(shù)特征 點(diǎn),HNN學(xué)習(xí)速率和動(dòng)量因子。
[0045] 步驟三:量化并歸一化每一個(gè)模糊輸入,歸一化量化的輸入數(shù)據(jù)。
[0046] 對(duì)于輸入數(shù)據(jù)集中的模糊型數(shù)據(jù),利用隸屬度網(wǎng)絡(luò)將其轉(zhuǎn)化為固定區(qū)間內(nèi)的量化 數(shù)值并進(jìn)行歸一化;對(duì)于相差較大的定量數(shù)據(jù)數(shù)值,為消除數(shù)值的分布差異,從而提高運(yùn)算 效率,HNN米用最大-最小方法對(duì)其進(jìn)行歸一化。
[0047] 步驟四:獲得對(duì)應(yīng)輸入數(shù)據(jù)的本次定量預(yù)測(cè)結(jié)果。
[0048] 步驟五:判斷HNN預(yù)測(cè)誤差是否達(dá)到了設(shè)定的誤差限值,若未達(dá)到,則進(jìn)行步驟六, 若達(dá)到,則進(jìn)行步驟九。
[0049]步驟六:本發(fā)明采用BP神經(jīng)網(wǎng)絡(luò)監(jiān)督學(xué)習(xí)方式來(lái)求解各層(HNN輸出層和中間層, 隸屬度網(wǎng)絡(luò)輸出層和中間層)神經(jīng)元的學(xué)習(xí)誤差導(dǎo)數(shù);
[0050]步驟七:修正各層網(wǎng)絡(luò)中神經(jīng)元的連接權(quán)重。
[0051]基于步驟六中各層神經(jīng)元的學(xué)習(xí)誤差導(dǎo)數(shù),本發(fā)明采用了一種權(quán)重確定法來(lái)修正 各層網(wǎng)絡(luò)神經(jīng)元的連接權(quán)重,為提高HNN算法的收斂速度,權(quán)重修正公式中增加了附加動(dòng)量 項(xiàng)。
[0052]步驟八:調(diào)整隸屬度函數(shù)的特征點(diǎn)。
[0053]根據(jù)隸屬度網(wǎng)絡(luò)中空白層神經(jīng)元的學(xué)習(xí)誤差導(dǎo)數(shù)調(diào)整隸屬度函數(shù)特征點(diǎn),可以達(dá) 到動(dòng)態(tài)改善HNN結(jié)構(gòu)的效果。
[0054] 步驟九:根據(jù)復(fù)雜工業(yè)產(chǎn)品性能數(shù)據(jù)對(duì)應(yīng)的性能評(píng)定結(jié)果等級(jí),若預(yù)測(cè)誤差達(dá)到 了誤差設(shè)定值,HNN給出0到1之間的對(duì)應(yīng)的量化預(yù)測(cè)結(jié)果,若未達(dá)到,則返回步驟四。
[0055] 實(shí)施例:
[0056] 本發(fā)明在Intel.、R)CoreTM2 Duo CRJ E8400@3.00GHz 2.99GHz 2.00GB內(nèi)存的32位操 作系統(tǒng)上進(jìn)行。本發(fā)明可以解決復(fù)雜工業(yè)產(chǎn)品性能評(píng)估過(guò)程中三種數(shù)據(jù)輸入的問(wèn)題,HNN訓(xùn) 練和測(cè)試流程如圖6所示。
[0057]下面結(jié)合以上內(nèi)容,通過(guò)具體的應(yīng)用,對(duì)本發(fā)明的技術(shù)方案作進(jìn)一步的說(shuō)明。
[0058] 某復(fù)雜工業(yè)產(chǎn)品的性能評(píng)估數(shù)據(jù)如下:Μ個(gè)樣本,4種評(píng)定等級(jí)(優(yōu)、良、中、差)和m 種數(shù)據(jù)屬性,其中每個(gè)數(shù)據(jù)項(xiàng)中有n(n$m)個(gè)是模糊型數(shù)據(jù),其余m-n個(gè)是定量型數(shù)據(jù)。將此 數(shù)據(jù)集隨機(jī)分成兩部分(例如各50%),一部分用于訓(xùn)練HNN,另一部分用于該復(fù)雜工業(yè)產(chǎn)品 的性能預(yù)測(cè)。該應(yīng)用包含模糊型和定量型兩種類型的評(píng)估數(shù)據(jù),對(duì)應(yīng)于圖6中的"訓(xùn)練集3", 先要用訓(xùn)練數(shù)據(jù)集訓(xùn)練好HNN,再用"HNN 3"對(duì)產(chǎn)品性能進(jìn)行評(píng)估測(cè)試,具體的步驟如下:
[0059] 步驟一:針對(duì)該復(fù)雜工業(yè)產(chǎn)品數(shù)據(jù)屬性中的4種評(píng)定等級(jí)、η種模糊型數(shù)據(jù)和m-n種 定量數(shù)據(jù),HNN結(jié)構(gòu)參數(shù)設(shè)置表2所示。
[0060] 表2 HNN結(jié)構(gòu)參數(shù)設(shè)置表
[0062] 步驟二:HNN進(jìn)行各層神經(jīng)元的連接權(quán)重和和隸屬度特征點(diǎn)初始化,設(shè)置誤差限 值、迭代次數(shù)、動(dòng)量因子和學(xué)習(xí)速率。
[0063] 初始化各層神經(jīng)元的連接權(quán)重為
[0064] w = 0.7 X s1/r Xrand (2)
[0065] 其中,s為該層神經(jīng)元個(gè)數(shù),r為輸入向量的維數(shù),rand為0到1之間的隨機(jī)數(shù),w為該 層神經(jīng)元的初始化權(quán)重。
[0066] 在HNN中,模糊數(shù)值的輸入范圍為[0,10],可以初始化模糊輸入隸屬度函數(shù)特征點(diǎn) 為
[0068]誤差限值可以設(shè)置為0.01,迭代次數(shù)設(shè)置為100,動(dòng)量因子和學(xué)習(xí)速率分別設(shè)置為 α = 0.7,η = 0.1〇
[0069]步驟三:ΗΝΝ將輸入數(shù)據(jù)集中的η個(gè)定性數(shù)據(jù)在隸屬度網(wǎng)絡(luò)中量化到[0,1]范圍內(nèi), 然后歸一化到[0,1]區(qū)間;同時(shí),將輸入的m-n個(gè)定量數(shù)據(jù)在"量化輸入"模塊中進(jìn)行歸一化。
[0070]歸一化選用"最大-最小"歸一化方法,若第i個(gè)輸入樣本的第j個(gè)值為Xlp則歸一化 后的值X' ij為
[0072] 其中,Xmax和Xmin為所有數(shù)據(jù)樣本中的最大值和最小值。
[0073] 步驟四:獲得HNN算法對(duì)該復(fù)雜工業(yè)產(chǎn)品測(cè)試數(shù)據(jù)集的本次定量預(yù)測(cè)結(jié)果。
[0074] 步驟五:判斷該預(yù)測(cè)結(jié)果與實(shí)際結(jié)果的誤差是否達(dá)到了誤差限值(例如步驟二中 設(shè)置的誤差限值〇. 01)。若未達(dá)到誤差限值,則進(jìn)行步驟六;若達(dá)到了該誤差限值,則進(jìn)行步 驟九。
[0075] 步驟六:計(jì)算各層神經(jīng)元學(xué)習(xí)誤差導(dǎo)數(shù)。
[0076]本發(fā)明采用BP神經(jīng)網(wǎng)絡(luò)監(jiān)督學(xué)習(xí)方式來(lái)計(jì)算各層神經(jīng)元學(xué)習(xí)誤差導(dǎo)數(shù),具體如 下:
[0077] HNN輸出誤差為
[0079]其中,(?°和yk分別為BP主神經(jīng)網(wǎng)絡(luò)中輸出層第k個(gè)神經(jīng)元的實(shí)際輸出和理論輸出; N°為輸出層神經(jīng)元的數(shù)量;E為HNN輸出層的誤差。
[0080] ·ΗΝΝ輸出層神經(jīng)元學(xué)習(xí)誤差導(dǎo)數(shù)為
[0082]其中,/(yi)為輸出層第k個(gè)神經(jīng)元的輸出對(duì)輸入的導(dǎo)數(shù),成為其學(xué)習(xí)誤差導(dǎo)數(shù)。 [0083] ·ΗΝΝ中間層神經(jīng)元學(xué)習(xí)誤差導(dǎo)數(shù)為
[0085]其中,N°為輸出層神經(jīng)元的個(gè)數(shù);增為HNN中間層第k個(gè)神經(jīng)元的輸出,ke [1,N°]; Μ為HNN輸出層第k個(gè)神經(jīng)元的輸入;Hfl為中間層第j個(gè)神經(jīng)元指向輸出層第k個(gè)神經(jīng)元的 權(quán)重;by°為HNN輸出神經(jīng)元的輸出閾值;/'(/φ為中間層第j個(gè)神經(jīng)元的輸出對(duì)輸入的導(dǎo)數(shù); 為中間層神經(jīng)元j的學(xué)習(xí)誤差導(dǎo)數(shù)。
[0086] ?隸屬度神經(jīng)網(wǎng)絡(luò)輸出層神經(jīng)元學(xué)習(xí)誤差導(dǎo)數(shù)為
[0088]其中,NH為HNN中間層神經(jīng)元的個(gè)數(shù),j e [1,NH] 為隸屬度網(wǎng)絡(luò)的輸出指向HNN 中間層第j個(gè)神經(jīng)元的權(quán)重;fliy1)為隸屬度網(wǎng)絡(luò)輸出神經(jīng)元的輸出對(duì)輸入的導(dǎo)數(shù);為 隸屬度網(wǎng)絡(luò)輸出神經(jīng)元學(xué)習(xí)誤差導(dǎo)數(shù)。
[0089] ?隸屬度神經(jīng)網(wǎng)絡(luò)中間層神經(jīng)元學(xué)習(xí)誤差導(dǎo)數(shù)為
[0090] = 4應(yīng).f . / V〇 (9)
[0091] 其中,為中間層第j個(gè)神經(jīng)元指向輸出層神經(jīng)元的權(quán)重;/(?)為隸屬度網(wǎng)絡(luò) 中間層第j個(gè)神經(jīng)元的輸出對(duì)輸入的導(dǎo)數(shù)為隸屬度網(wǎng)絡(luò)中間層神經(jīng)元j的學(xué)習(xí)誤差導(dǎo) 數(shù)。
[0092]步驟七:修正連接權(quán)重。
[0093]本發(fā)明采用的權(quán)重修正法如下:
[0094] ·ΗΝΝ輸出層神經(jīng)元權(quán)重的變化為
[0095] wf°*(l + V) - Λ\ψ'ι {^-η·?^ · +a-{wf°'k{t)-w^〇tk{t-\y) (10)
[0096] 其中,》f~+ 1P 和Ο-1)為HNN中間層第j個(gè)神經(jīng)元指向輸出層第k個(gè)神經(jīng) 元的變化后的權(quán)重、當(dāng)前權(quán)重和上一時(shí)刻權(quán)重;〃f為中間層第j個(gè)神經(jīng)元的輸出;η為學(xué)習(xí) 速率,通常情況下11^[0.1,0.4];€[為動(dòng)量因子,通常情況下€[£[0.7,0.9]。
[0097] ·ΗΝΝ中間層神經(jīng)元權(quán)重的變化為
[0098] v^'J(/ + 1) = wjH'J(?)-η·dj lyf + a (/)~(t-1)) (11)
[0099] 其中,、tf"(r+l)、0?)和M嚴(yán)"(?-l)為HNN輸入層第i個(gè)神經(jīng)元指向中間層第j個(gè)神經(jīng) 元的變化后的權(quán)重、當(dāng)前權(quán)重和上一時(shí)刻權(quán)重;iy?為輸入層第i個(gè)神經(jīng)元的輸出。
[0100] ?隸屬度神經(jīng)網(wǎng)絡(luò)輸出層神經(jīng)元權(quán)重的變化為
[0101] wf (f +1) = wn^(/)-/; dnw ·}? + a-(w!;,0(t)-wf°(t-1)) (12)
[0102] 其中,HfXi + l)、wf(f)和為隸屬度網(wǎng)絡(luò)中間層第j個(gè)神經(jīng)元指向輸出 神經(jīng)元的變化后的權(quán)重、當(dāng)前權(quán)重和上一時(shí)刻權(quán)重;<為隸屬度網(wǎng)絡(luò)中間層第j個(gè)神經(jīng)元的 輸出。
[0103 ] ?隸屬度神經(jīng)網(wǎng)絡(luò)中間層神經(jīng)元權(quán)重的變化為
[0104] = -bf(13)
[0105] 其中,wf夠+1)、和1)為隸屬度層第i個(gè)神經(jīng)元指向中間層第j個(gè)神經(jīng) 元的變化后的權(quán)重、當(dāng)前權(quán)重和上一時(shí)刻權(quán)重; < 為空白層第i個(gè)神經(jīng)元的輸出,與隸屬度 層第i個(gè)神經(jīng)元的輸出<相等。
[0106] 步驟八:采用梯度下降法進(jìn)行隸屬度特征點(diǎn)的調(diào)整。
[0107] 圖4中隸屬度層的三個(gè)神經(jīng)元分別代表圖5中模糊集合"小"、"中"、"大"。例如模糊 集合的函數(shù)特征點(diǎn)變化區(qū)間可以為[0,10],并且滿足約束關(guān)系
[0109]隸屬度函數(shù)本質(zhì)上是由它的形狀和其特征點(diǎn)的位置而決定的。對(duì)于梯度型隸屬度 函數(shù)而言,調(diào)整隸屬度函數(shù)特征點(diǎn)就可以達(dá)到調(diào)整隸屬度函數(shù)的目的。
[0110]隸屬度網(wǎng)絡(luò)中(圖4),空白層神經(jīng)元的輸出和輸入相等,其輸出對(duì)輸入的導(dǎo)數(shù)為1。 由BP神經(jīng)網(wǎng)絡(luò)的監(jiān)督學(xué)習(xí)算法,空白神經(jīng)元層各神經(jīng)元的學(xué)習(xí)誤差導(dǎo)數(shù)為
[0112] 其中,<"是隸屬度網(wǎng)絡(luò)中中間層第j個(gè)神經(jīng)元的學(xué)習(xí)誤差導(dǎo)數(shù),#[1,4];<〃是 隸屬度網(wǎng)絡(luò)隸屬度層第i個(gè)神經(jīng)元指向隸屬度網(wǎng)絡(luò)中間層第j個(gè)神經(jīng)元的權(quán)重;/作/)是空 白神經(jīng)元層第i個(gè)神經(jīng)元的輸出對(duì)其輸入的導(dǎo)數(shù); 是空白神經(jīng)元層第i個(gè)神經(jīng)元的學(xué)習(xí) 誤差導(dǎo)數(shù)。
[0113] 根據(jù)梯度下降的原理,在神經(jīng)網(wǎng)絡(luò)中各層神經(jīng)元相應(yīng)連接權(quán)重的改變與其誤差導(dǎo) 數(shù)函數(shù)對(duì)該神經(jīng)元權(quán)重負(fù)導(dǎo)數(shù)成正比。由此可知,一個(gè)神經(jīng)元隸屬度值的變化應(yīng)正比于其 誤差導(dǎo)數(shù)函數(shù)對(duì)該神經(jīng)元權(quán)重的負(fù)導(dǎo)數(shù):
[0115]其中,Δ dk是第k次迭代的迭代步長(zhǎng);了^是上一次迭代中的訓(xùn)練時(shí)間。
[0116]隸屬度網(wǎng)絡(luò)中,隸屬度的改變體現(xiàn)在隸屬度函數(shù)的變化上,即隸屬度曲線特征點(diǎn) 的平移。在此梯度下降調(diào)整方法中,隸屬度特征點(diǎn)的平移直接受每一次迭代過(guò)程中空白層 神經(jīng)元權(quán)重的學(xué)習(xí)誤差導(dǎo)數(shù)影響。平移規(guī)則如表3所示,其中,△ d表示本次迭代時(shí)的平移距 離;fp為模糊輸入點(diǎn),且有fpe [lb,ub] ;lb和ub分別為模糊輸入的下界和上界。
[0117] 表3平移規(guī)則
[0120]隸屬度特征點(diǎn)的調(diào)整步驟如圖1中右邊虛線框所示。首先,按照公式(9)計(jì)算隸屬 度網(wǎng)絡(luò)中間層神經(jīng)元的學(xué)習(xí)誤差導(dǎo)數(shù),然后基于隸屬度網(wǎng)絡(luò)隸屬度層中神經(jīng)元指向其中間 層神經(jīng)元的權(quán)重,根據(jù)公式(15)計(jì)算隸屬度網(wǎng)絡(luò)空白層神經(jīng)元的學(xué)習(xí)誤差導(dǎo)數(shù),最后根據(jù) 表3中的隸屬度特征點(diǎn)平移規(guī)則,平移每一個(gè)隸屬度函數(shù)的特征點(diǎn),從而隸屬度函數(shù)得到更 新。
[0121] 步驟九:根據(jù)該復(fù)雜工業(yè)產(chǎn)品性能數(shù)據(jù)對(duì)應(yīng)的性能評(píng)定結(jié)果等級(jí),若預(yù)測(cè)誤差達(dá) 到了誤差設(shè)定值,HNN給出0到1之間的對(duì)應(yīng)的量化預(yù)測(cè)結(jié)果,若未達(dá)到,則返回步驟四。
[0122] 步驟十:將測(cè)試數(shù)據(jù)集輸入以上"訓(xùn)練好的HNN3",運(yùn)行"HNN3",得到對(duì)該復(fù)雜工業(yè) 產(chǎn)品性能評(píng)估的結(jié)果。例如如[0,0.2]表示"優(yōu)",[0.2,0.4]表示"良",[0.5,0.7]表示"中", [0.8,1.0]表示"差"。
[0123] 至此,HNN算法完成了對(duì)該復(fù)雜工業(yè)產(chǎn)品性能評(píng)估中具有不同數(shù)據(jù)項(xiàng)維數(shù)的定性、 定量數(shù)據(jù)輸入的處理和對(duì)該產(chǎn)品性能的評(píng)估。
【主權(quán)項(xiàng)】
1. 一種基于混合神經(jīng)網(wǎng)絡(luò)算法的用于復(fù)雜工業(yè)產(chǎn)品性能評(píng)估方法,包括W下幾個(gè)步 驟: 步驟一:根據(jù)輸入的復(fù)雜工業(yè)產(chǎn)品的性能數(shù)據(jù)屬性,確定混合神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)參數(shù); 混合神經(jīng)網(wǎng)絡(luò)即的結(jié)構(gòu)參數(shù)為: 表1 ΗΓ^Ν各層神經(jīng)元數(shù)量'^步驟二:初始化權(quán)重和模糊輸入對(duì)應(yīng)的隸屬度網(wǎng)絡(luò)模塊中的隸屬度函數(shù)特征點(diǎn)、胃 學(xué)習(xí)速率和動(dòng)量因子; 步驟Ξ:量化并歸一化每一個(gè)模糊輸入;歸一化量化的輸入數(shù)據(jù); 對(duì)于輸入數(shù)據(jù)集中的模糊型數(shù)據(jù),利用隸屬度網(wǎng)絡(luò)將其轉(zhuǎn)化為固定區(qū)間內(nèi)的量化數(shù)值 并進(jìn)行歸一化;對(duì)于相差較大的定量數(shù)據(jù)數(shù)值,為消除數(shù)值的分布差異,從而提高運(yùn)算效 率,HNN采用最大-最小方法對(duì)其進(jìn)行歸一化; 步驟四:獲得對(duì)應(yīng)輸入數(shù)據(jù)的本次定量預(yù)測(cè)結(jié)果; 步驟五:判斷證W預(yù)測(cè)誤差是否達(dá)到了設(shè)定的誤差限值,若未達(dá)到,則進(jìn)行步驟六,若達(dá) 到,則進(jìn)行步驟九; 步驟六:采用BP神經(jīng)網(wǎng)絡(luò)監(jiān)督學(xué)習(xí)方式來(lái)求解各層神經(jīng)元的學(xué)習(xí)誤差導(dǎo)數(shù); 步驟屯:修正各層網(wǎng)絡(luò)中神經(jīng)元的連接權(quán)重; 步驟八:調(diào)整隸屬度函數(shù)的特征點(diǎn); 根據(jù)隸屬度網(wǎng)絡(luò)中空白層神經(jīng)元的學(xué)習(xí)誤差導(dǎo)數(shù)調(diào)整隸屬度函數(shù)特征點(diǎn); 步驟九:根據(jù)復(fù)雜工業(yè)產(chǎn)品性能數(shù)據(jù)對(duì)應(yīng)的性能評(píng)定結(jié)果等級(jí),若預(yù)測(cè)誤差達(dá)到了誤 差設(shè)定值,ΗΓ^Ν給出0到1之間的對(duì)應(yīng)的量化預(yù)測(cè)結(jié)果,若未達(dá)到,則返回步驟四。2. 根據(jù)權(quán)利要求1所述的一種基于混合神經(jīng)網(wǎng)絡(luò)算法的用于復(fù)雜工業(yè)產(chǎn)品性能評(píng)估方 法,所述的步驟八中: 隸屬度函數(shù)本質(zhì)上是由它的形狀和其特征點(diǎn)的位置而決定的,對(duì)于梯度型隸屬度函數(shù) 而言,調(diào)整隸屬度函數(shù)特征點(diǎn)就可W達(dá)到調(diào)整隸屬度函數(shù)的目的; 隸屬度網(wǎng)絡(luò)是在傳統(tǒng)隸屬度網(wǎng)絡(luò)基礎(chǔ)上增加了空白層,空白層將此網(wǎng)絡(luò)隸屬度層看成 由輸入層到空白神經(jīng)元層的權(quán)重,空白層神經(jīng)元的輸出和輸入相等,其輸出對(duì)輸入的導(dǎo)數(shù) 為1;由ΒΡ神經(jīng)網(wǎng)絡(luò)的監(jiān)督學(xué)習(xí)算法,空白神經(jīng)元層各神經(jīng)元的學(xué)習(xí)誤差導(dǎo)數(shù)為(1) 其中,皆"'是隸屬度網(wǎng)絡(luò)中中間層第j個(gè)神經(jīng)元的學(xué)習(xí)誤差導(dǎo)數(shù),^'引1,4];?產(chǎn)'墻隸屬 度網(wǎng)絡(luò)隸屬度層第i個(gè)神經(jīng)元指向隸屬度網(wǎng)絡(luò)中間層第j個(gè)神經(jīng)元的權(quán)重;/化/)是空白神 經(jīng)元層第j個(gè)神經(jīng)元的輸出對(duì)其輸入的導(dǎo)數(shù);皆S是空白神經(jīng)元層第i個(gè)神經(jīng)元的學(xué)習(xí)誤差 導(dǎo)數(shù); 一個(gè)神經(jīng)元隸屬度值的變化應(yīng)正比于其誤差導(dǎo)數(shù)函數(shù)對(duì)該神經(jīng)元權(quán)重的負(fù)導(dǎo)數(shù):腳 Δ dk = 1.0/( 10.0*min( 10.0,max( 1.0,Tk-i/10.0))) 其中,A dk是第k次迭代的迭代步長(zhǎng);Tk-i是上一次迭代中的訓(xùn)練時(shí)間; 隸屬度網(wǎng)絡(luò)中,隸屬度的改變體現(xiàn)在隸屬度函數(shù)的變化上,即隸屬度曲線特征點(diǎn)的平 移;在此梯度下降調(diào)整方法中,隸屬度特征點(diǎn)的平移直接受每一次迭代過(guò)程中空白層神經(jīng) 元權(quán)重的學(xué)習(xí)誤差導(dǎo)數(shù)影響;平移規(guī)則如表2所示,其中,Ad表示本次迭代時(shí)的平移距離; 巧為模糊輸入點(diǎn),且有巧e [化,ub];化和ub分別為模糊輸入的下界和上界; 表2平移規(guī)則隸屬度特征點(diǎn)的調(diào)整:首先,計(jì)算隸屬度網(wǎng)絡(luò)中間層神經(jīng)元的學(xué)習(xí)誤差導(dǎo)數(shù),然后基于 隸屬度層中神經(jīng)元指向中間層神經(jīng)元的權(quán)重,根據(jù)公式(1)計(jì)算空白層神經(jīng)元的學(xué)習(xí)誤差 導(dǎo)數(shù),最后根據(jù)表2中的隸屬度特征點(diǎn)平移規(guī)則,平移每一個(gè)隸屬度函數(shù)的特征點(diǎn),從而隸 屬度函數(shù)得到更新。
【文檔編號(hào)】G06N3/08GK106096723SQ201610366047
【公開(kāi)日】2016年11月9日
【申請(qǐng)日】2016年5月27日
【發(fā)明人】龔光紅, 李玉紅, 李妮, 孔海朋
【申請(qǐng)人】北京航空航天大學(xué)