国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)警系統(tǒng)的制作方法

      文檔序號:39344034發(fā)布日期:2024-09-10 12:05閱讀:23來源:國知局
      一種基于神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)警系統(tǒng)的制作方法

      本發(fā)明涉及大數(shù)據(jù)處理,更具體地涉及一種基于神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)警系統(tǒng)。


      背景技術(shù):

      1、神經(jīng)網(wǎng)絡(luò)作為模擬人腦神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)和功能的計算模型,近年來得到了飛速的發(fā)展,從最初的感知機到多層前饋神經(jīng)網(wǎng)絡(luò),再到后來的卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)等,神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和算法不斷優(yōu)化,使其在處理復(fù)雜數(shù)據(jù)、識別模式方面展現(xiàn)出強大的能力,這種能力使得神經(jīng)網(wǎng)絡(luò)在數(shù)據(jù)預(yù)警領(lǐng)域具有廣泛的應(yīng)用前景,同時大數(shù)據(jù)技術(shù)的興起為數(shù)據(jù)預(yù)警系統(tǒng)提供了豐富的數(shù)據(jù)源和強大的處理能力,通過采集、存儲、分析和挖掘海量數(shù)據(jù),大數(shù)據(jù)技術(shù)能夠幫助預(yù)警系統(tǒng)更準確地識別出潛在風險并降低損失。

      2、隨著數(shù)據(jù)源的增多和復(fù)雜性的提高,對數(shù)據(jù)調(diào)用量的監(jiān)控和預(yù)警變得越來越重要,尤其在廣告用戶觸達、訂單進件、資金交易、市場需求、商品價格等場景數(shù)據(jù)預(yù)測預(yù)警顯得更加重要,但是傳統(tǒng)的預(yù)警方法往往基于規(guī)則或統(tǒng)計方法,無法準確預(yù)測未來的調(diào)用量變化,缺乏對歷史數(shù)據(jù)的訓練學習,無法準確地預(yù)測未來的調(diào)用量變化,并及時發(fā)出預(yù)警,缺少對預(yù)測模型的損失評估,忽略了在預(yù)測過程中誤差大小對預(yù)測結(jié)果準確性的影響,因此,傳統(tǒng)數(shù)據(jù)預(yù)警系統(tǒng)仍需要不斷地優(yōu)化。


      技術(shù)實現(xiàn)思路

      1、為了克服現(xiàn)有技術(shù)的上述缺陷,本發(fā)明提供了一種基于神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)警系統(tǒng),以解決上述背景技術(shù)中存在的問題。

      2、本發(fā)明提供如下技術(shù)方案:一種基于神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)警系統(tǒng),包括:數(shù)據(jù)獲取模塊、數(shù)據(jù)預(yù)處理模塊、數(shù)據(jù)拆分模塊、預(yù)測模型建立模塊、損失函數(shù)評估模塊、預(yù)測模型判斷模塊、數(shù)據(jù)輸入預(yù)測模塊,以及預(yù)警結(jié)果輸出模塊;

      3、所述數(shù)據(jù)獲取模塊,通過網(wǎng)絡(luò)數(shù)據(jù)采集器從平臺采集數(shù)據(jù)源歷史樣本數(shù)據(jù),將原始數(shù)據(jù)整理成含有時間和調(diào)用量兩個特征的數(shù)據(jù),并將整理過后的特征數(shù)據(jù)傳輸至數(shù)據(jù)預(yù)處理模塊;

      4、所述數(shù)據(jù)預(yù)處理模塊,接收數(shù)據(jù)獲取模塊傳輸?shù)奶卣鲾?shù)據(jù),通過歸一化公式應(yīng)用對數(shù)據(jù)進行歸一化處理,并將歸一化處理后的數(shù)據(jù)傳輸至數(shù)據(jù)拆分模塊;

      5、所述數(shù)據(jù)拆分模塊,包括訓練集數(shù)據(jù)拆分單元和測試集數(shù)據(jù)拆分單元,通過lstm訓練將歸一化處理后的數(shù)據(jù)劃分為訓練集數(shù)據(jù)和測試集數(shù)據(jù),并將訓練集數(shù)據(jù)和測試集數(shù)據(jù)傳輸至預(yù)測模型建立模塊;

      6、所述預(yù)測模型建立模塊,基于數(shù)據(jù)拆分模塊傳輸?shù)挠柧毤瘮?shù)據(jù)和測試集數(shù)據(jù),建立預(yù)測模型,記錄預(yù)測結(jié)果,并將預(yù)測結(jié)果傳輸至損失函數(shù)評估模塊;

      7、所述損失函數(shù)評估模塊,基于預(yù)測模型建立模塊傳輸?shù)念A(yù)測結(jié)果,通過損失函數(shù)評估模型計算得出預(yù)測模型損失系數(shù),并將計算得出的預(yù)測模型損失系數(shù)傳輸至預(yù)測模型判斷模塊;

      8、所述預(yù)測模型判斷模塊,接收損失函數(shù)評估模塊傳輸?shù)念A(yù)測模型損失系數(shù),判斷預(yù)測模型是否符合預(yù)測要求,并將符合要求的預(yù)測模型傳輸至數(shù)據(jù)輸入預(yù)測模塊;

      9、所述數(shù)據(jù)輸入預(yù)測模塊,基于預(yù)測模型判斷模塊傳輸?shù)姆弦蟮念A(yù)測模型,確定最優(yōu)預(yù)測模型并在預(yù)測模型中輸入已知時間段的數(shù)據(jù)調(diào)用量,得出數(shù)據(jù)預(yù)測調(diào)用量,并將數(shù)據(jù)預(yù)測調(diào)用量傳輸至預(yù)警結(jié)果輸出模塊;

      10、所述預(yù)警結(jié)果輸出模塊,接收數(shù)據(jù)輸入預(yù)測模塊傳輸?shù)臄?shù)據(jù)預(yù)測調(diào)用量,將數(shù)據(jù)預(yù)測調(diào)用量與預(yù)設(shè)閾值進行對比,數(shù)據(jù)預(yù)測調(diào)用量超出預(yù)設(shè)閾值時系統(tǒng)預(yù)警顯示,并以釘釘消息的形式發(fā)送至業(yè)務(wù)端。

      11、優(yōu)選的,所述數(shù)據(jù)獲取模塊中樣本數(shù)據(jù)包括日期、數(shù)據(jù)源名稱、數(shù)據(jù)源調(diào)用量,并以“天”為時間尺度進行數(shù)據(jù)整理。

      12、優(yōu)選的,所述數(shù)據(jù)預(yù)處理模塊中歸一化公式應(yīng)用的計算公式為:其中x′表示歸一化后的數(shù)據(jù)輸出值,x表示歸一化前的數(shù)據(jù)輸入值,min和max是指數(shù)據(jù)映射的最小值和最大值,xmin表示輸入數(shù)據(jù)的最小值,xmax表示輸入數(shù)據(jù)的最大值。

      13、優(yōu)選的,所述數(shù)據(jù)拆分模塊中訓練集數(shù)據(jù)包括數(shù)據(jù)源樣本數(shù)量,已知的數(shù)據(jù)源樣本調(diào)用量和已知的數(shù)據(jù)源預(yù)測調(diào)用量,測試集包括數(shù)據(jù)源樣本數(shù)量和已知時間段內(nèi)的數(shù)據(jù)源樣本調(diào)用量。

      14、優(yōu)選的,所述預(yù)測模型建立模塊中建立預(yù)測模型的具體步驟如下:

      15、步驟s01:通過神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)將訓練集數(shù)據(jù)和測試集數(shù)據(jù)分別劃分為輸入層、隱藏層和輸出層;

      16、步驟s02:定義s(s1,s2,...,si,...,sn)為輸入數(shù)據(jù),h(h1,h2,...,hi,...,hn)為隱藏數(shù)據(jù),y(y1,y2,...,yi,...,yn)為輸出數(shù)據(jù);

      17、步驟s03:計算隱藏層激活函數(shù),計算公式為:其中h(s)表示隱藏層激活函數(shù),si表示輸入數(shù)據(jù);

      18、步驟s04:計算輸出層激活函數(shù),計算公式為:其中y(s)表示輸出層激活函數(shù),si表示輸入數(shù)據(jù);

      19、步驟s05:建立預(yù)測模型,計算公式為:其中pi表示輸入數(shù)據(jù)后的預(yù)測值,h(s)表示隱藏層激活函數(shù),y(s)表示輸出層激活函數(shù),ω1表示輸入層所占權(quán)重,ω2表示隱藏層所占權(quán)重,ω3表示輸出層所占權(quán)重;

      20、步驟s06:在預(yù)測模型輸入數(shù)據(jù)拆分模塊中的訓練集數(shù)據(jù),得到輸出的訓練集數(shù)據(jù),當訓練準確率符合預(yù)設(shè)閾值時,則預(yù)測模型訓練完成,輸入測試集數(shù)據(jù),得到輸出的測試集數(shù)據(jù)。

      21、優(yōu)選的,所述損失函數(shù)評估模塊中通過損失函數(shù)評估模型計算得出預(yù)測模型損失系數(shù)的計算公式為:其中mt表示預(yù)測模型損失系數(shù),mi表示輸入的測試集數(shù)據(jù),δmi表示輸出的測試集數(shù)據(jù)。

      22、優(yōu)選的,所述預(yù)測模型判斷模塊將接收的預(yù)測模型損失系數(shù)與預(yù)設(shè)的損失系數(shù)閾值進行對比,判斷預(yù)測模型是否符合預(yù)測要求,若預(yù)測模型損失系數(shù)mt小于或等于預(yù)設(shè)的損失系數(shù)閾值δmt,則判斷預(yù)測模型符合要求,將預(yù)測模型傳輸至數(shù)據(jù)輸入預(yù)測模塊,若預(yù)測模型損失系數(shù)mt大于預(yù)設(shè)的損失系數(shù)閾值δmt,則判斷預(yù)測模型不符合要求,返回預(yù)測模型建立模塊再次依據(jù)訓練集數(shù)據(jù)訓練模型。

      23、優(yōu)選的,所述數(shù)據(jù)輸入預(yù)測模塊將預(yù)測效果最好的模型保存為最優(yōu)模型,在最優(yōu)模型中輸入已知時間段的數(shù)據(jù)調(diào)用量,預(yù)測得出未發(fā)生時間段的數(shù)據(jù)預(yù)測調(diào)用量。

      24、優(yōu)選的,所述預(yù)警結(jié)果輸出模塊自動預(yù)設(shè)數(shù)據(jù)調(diào)用量閾值,當通過預(yù)測模型計算得出的數(shù)據(jù)預(yù)測調(diào)用量超出預(yù)設(shè)閾值時,系統(tǒng)自動進行預(yù)警顯示,并以釘釘消息的形式發(fā)送至業(yè)務(wù)端。

      25、本發(fā)明的技術(shù)效果和優(yōu)點:

      26、本發(fā)明通過數(shù)據(jù)獲取模塊、數(shù)據(jù)預(yù)處理模塊、數(shù)據(jù)拆分模塊、預(yù)測模型建立模塊、損失函數(shù)評估模塊、預(yù)測模型判斷模塊、數(shù)據(jù)輸入預(yù)測模塊,以及預(yù)警結(jié)果輸出模塊,通過網(wǎng)絡(luò)數(shù)據(jù)采集器從平臺采集數(shù)據(jù)源歷史樣本數(shù)據(jù),將原始數(shù)據(jù)整理成含有時間和調(diào)用量兩個特征的數(shù)據(jù),對原始數(shù)據(jù)進行歸一化處理,將歸一化后的數(shù)據(jù)集按照一定比例劃分為訓練集和測試集,其中訓練集用于訓練模型,測試集用于評估模型,依據(jù)訓練集數(shù)據(jù)建立預(yù)測模型,輸入測試集數(shù)據(jù)得出測試結(jié)果,并通過損失函數(shù)評估模型計算得出預(yù)測模型損失系數(shù),計算得出最優(yōu)模型,在最優(yōu)模型中輸入已知時間段的數(shù)據(jù)調(diào)用量,得出數(shù)據(jù)預(yù)測調(diào)用量,并對異常數(shù)據(jù)預(yù)警顯示,總之,一種基于神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)預(yù)警系統(tǒng)通過對歷史數(shù)據(jù)的訓練學習,準確地預(yù)測未來的調(diào)用量變化,并及時發(fā)出預(yù)警,通過對預(yù)測模型的損失評估,減少了在預(yù)測過程中誤差大小對預(yù)測結(jié)果準確性的影響,能夠準確地識別出異常模式,提高預(yù)警的準確性和可靠性。

      當前第1頁1 2 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1