本發(fā)明涉及計算機技術(shù)領(lǐng)域,特別涉及一種基于影響因子和神經(jīng)網(wǎng)絡(luò)的知識點摸底方法。
背景技術(shù):
知識點摸底一直都是中小學(xué)在線教育系統(tǒng)中的熱點問題,屬于整個在線教育系統(tǒng)的有機組成部分。通過對新用戶進行知識點摸底,可以大體判斷出一個用戶哪些知識點已經(jīng)掌握,哪些未掌握。這樣才能有針對性地向不同用戶推薦不同的學(xué)習(xí)資料,以便個性化地對用戶進行輔導(dǎo),有效地提高其學(xué)習(xí)成績。因此,如何有效地對剛注冊的用戶進行知識點摸底在整個在線教育系統(tǒng)中就顯得尤為重要。
目前,對新用戶知識點摸底的方法都是事先對每一個知識點出一系列題目,然后要求用戶對每一個知識進行做題,通過判斷題目是否正確來得出是否掌握該知識點的結(jié)論。傳統(tǒng)做題的方法容易使大多數(shù)用戶感到反感,一開始就產(chǎn)生抵觸心理。尤其是隨著做題數(shù)量的增多,即便是已掌握的知識點的題目也越來越容易因為分心或粗心而做錯,得出用戶并未掌握該知識點的錯誤結(jié)論。另外,做題需要消耗大量的時間,使得整個對知識點的摸底探測的時間過長(以500個知識點,每個知識點5題,做每一題平均花費1分鐘為例,就需要花費2500分鐘)。更有甚者,部分用戶在摸底探測的過程中就可能因為題量過多而選擇直接放棄,不愿意繼續(xù)做題。
綜上所述,如果能夠研發(fā)出一種快速對用戶知識點進行摸底的方法,不需要依賴于做題的方式,解決現(xiàn)有對知識點摸底的方法帶來的種種弊端,將會極具市場前景。
技術(shù)實現(xiàn)要素:
為此,需要提供一種基于影響因子和神經(jīng)網(wǎng)絡(luò)的知識點摸底方法,該方法通過提煉出用戶與其是否掌握某一知識點相關(guān)的影響因子,并將影響因子輸入到已經(jīng)訓(xùn)練好的多層神經(jīng)網(wǎng)絡(luò)模型中,通過算法運算直接得出用戶對知識點的掌握情況,有效解決了現(xiàn)有通過做題來對知識點進行摸底的方式所帶來的用戶體驗差、時間長、摸底結(jié)論不可靠等問題。
為實現(xiàn)上述目的,發(fā)明人提供了一種基于影響因子和神經(jīng)網(wǎng)絡(luò)的知識點摸底方法,所述方法包括以下步驟:
對知識點的影響因子進行量化,并根據(jù)量化后的影響因子,建立多層神經(jīng)網(wǎng)絡(luò)模型;
將訓(xùn)練樣本參數(shù)輸入到所建立的多層神經(jīng)網(wǎng)絡(luò)模型,并在訓(xùn)練得出的網(wǎng)絡(luò)誤差小于第一預(yù)設(shè)誤差時,停止訓(xùn)練,并保存神經(jīng)網(wǎng)絡(luò)模型對應(yīng)的網(wǎng)絡(luò)參數(shù);所述網(wǎng)絡(luò)誤差是指樣本參數(shù)輸入神經(jīng)網(wǎng)絡(luò)模型后的實際輸出與期望輸出的誤差;
根據(jù)所保存的網(wǎng)絡(luò)參數(shù)對神經(jīng)網(wǎng)絡(luò)模型進行初始化,并將待測用戶對應(yīng)的知識點的影響因子輸入到訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型中;
神經(jīng)網(wǎng)絡(luò)模型根據(jù)待測用戶對應(yīng)的知識點的影響因子對待測用戶是否掌握該知識點進行預(yù)測,并保存預(yù)測結(jié)果。
進一步地,所述知識點的影響因子包括用戶自身綜合素質(zhì)、用戶家庭教育程度、用戶學(xué)校教育程度、用戶社會教育程度以及學(xué)科。
進一步地,所述“根據(jù)量化后的影響因子,建立多層神經(jīng)網(wǎng)絡(luò)模型”包括以下步驟:
輸入層神經(jīng)元個數(shù)為m個,m為知識點的影響因子個數(shù),采用的是線性恒等激勵函數(shù),對應(yīng)輸入樣本Xi(i=1,2,…,m)的維數(shù)為m,輸入向量X=[x1,x2,…,xm],單個節(jié)點為xi;
隱含層神經(jīng)元個數(shù)為n個,采用的是單極S型激勵函數(shù)f,對應(yīng)輸出樣本Yj(j=1,2,…,n)的維數(shù)為n,隱含層神經(jīng)元向量Y=[y1,y2,…,yn],單個節(jié)點為yj;
輸出層神經(jīng)元個數(shù)為p個,采用的是線性傳遞激勵函數(shù)g,對應(yīng)輸出樣本Zk(k=1,2,…,p)的維數(shù)為p,輸出層向量Z=[z1,z2,…,zp],單個節(jié)點為zk,輸出層期望值為tk;
各神經(jīng)元間連接權(quán)值用Wij和進行Vjk進行表示,其中:Wij為輸入層的第i個神經(jīng)元到隱含層的第j個神經(jīng)元的權(quán)值,Vjk為隱含層的第j個神經(jīng)元到輸出層的第k個神經(jīng)元的權(quán)值;隱含層神經(jīng)元j的閾值用θj表示,輸出層神經(jīng)元k的閾值用表示;隱含層yj表示第j個神經(jīng)元的輸出,信號由隱含層傳遞到輸出層,作為輸出層的輸入;而輸出層zk表示第k個神經(jīng)元的實際輸出,tk表示期望輸出結(jié)果;輸入層到隱含層的學(xué)習(xí)率用α表示,隱含層到輸出層的學(xué)習(xí)率用β表示。
進一步地,所述“將訓(xùn)練樣本參數(shù)輸入到所建立的多層神經(jīng)網(wǎng)絡(luò)模型,并在訓(xùn)練得出的網(wǎng)絡(luò)誤差小于第一預(yù)設(shè)誤差時,停止訓(xùn)練,并保存神經(jīng)網(wǎng)絡(luò)模型對應(yīng)的網(wǎng)絡(luò)參數(shù)”包括以下步驟:
步驟S1:初始化網(wǎng)絡(luò)參數(shù);具體包括:
S11:使用隨機值初始化網(wǎng)絡(luò)參數(shù),所述網(wǎng)絡(luò)參數(shù)包括:權(quán)值矩陣Wij和Vjk,學(xué)習(xí)率α、β,閥值θj和動量項其中,0<α、β≤1且β>α;
S12:確定隱含層激勵函數(shù),函數(shù)f選擇為:
γ是陡度因子,取值范圍是0.35≤γ≤0.7;
S13:確定輸出層激勵函數(shù),函數(shù)g選擇為:
γ是陡度因子,取值范圍是0.35≤γ≤0.7;
步驟S2:輸入訓(xùn)練樣本,開始迭代訓(xùn)練,并對輸入樣本參數(shù)進行歸一化處理;
其中,隱含層第j個神經(jīng)元輸出可以通過以下方式實現(xiàn):
輸出層第k個神經(jīng)元輸出可以通過以下方式實現(xiàn):
步驟S3:樣本訓(xùn)練完畢后,計算網(wǎng)絡(luò)誤差E,計算公式如下:
步驟S4:判斷網(wǎng)絡(luò)誤差E是否小于第一預(yù)設(shè)誤差,若是則神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練結(jié)束,進入步驟S7;否則進入步驟S5;
步驟S5:將誤差E反向傳播并且更新網(wǎng)絡(luò)參數(shù);具體包括:
S51:確定誤差信號,具體公式如下:
輸出層神經(jīng)元誤差信號:δk=(tk-zk)*g′(netk);
隱含層神經(jīng)元誤差信號:
隱含層松緊變量取值的變化如下:
輸出層松緊變量τ取值的變化如下:
S52:將誤差反向傳播;具體包括:
更新動量項公式如下:
對隱含層到輸出層的權(quán)值進行調(diào)整,公式如下:
對輸入層到隱含層的權(quán)值進行調(diào)整,公式如下:
對輸出層閾值進行調(diào)整,公式如下:
對隱含層閾值進行調(diào)整,公式如下:
對隱含層神經(jīng)元學(xué)習(xí)率α進行調(diào)整,公式如下:
對輸出層神經(jīng)元學(xué)習(xí)率β進行調(diào)整,公式如下:
步驟S6:采用步驟S5更新后的網(wǎng)絡(luò)參數(shù)vjk,wij,θj,α,β,再次執(zhí)行步驟S2;直至計算出的網(wǎng)絡(luò)誤差E小于第一預(yù)設(shè)誤差,進入步驟S7;
步驟S7:將待測樣本輸入神經(jīng)網(wǎng)絡(luò)模型,觀察實際輸出與期望輸出的誤差,若兩者誤差大于第二預(yù)設(shè)誤差,則對隱含層神經(jīng)元數(shù)目以及陡度因子γ進行調(diào)整,并重新執(zhí)行步驟S1至步驟S6;
步驟S8:當(dāng)多個待測樣本輸入神經(jīng)網(wǎng)絡(luò)模型后,所有待測樣本對應(yīng)的輸出與期望輸出的誤差均小于第二預(yù)設(shè)誤差時,測試訓(xùn)練結(jié)束,并保存網(wǎng)絡(luò)參數(shù),所述網(wǎng)絡(luò)參數(shù)包括當(dāng)前神經(jīng)網(wǎng)絡(luò)模型對應(yīng)的權(quán)值矩陣Wij和Vjk,學(xué)習(xí)率α、β,閥值θj和動量項其中,0<α、β≤1且β>α。
進一步地,所述“神經(jīng)網(wǎng)絡(luò)模型根據(jù)待測用戶對應(yīng)的知識點的影響因子對待測用戶是否掌握該知識點進行預(yù)測”具體包括:
隱含層第j個神經(jīng)元輸出:
輸出層第k個神經(jīng)元輸出:
進一步地,所述影響因子包括用戶所處的年級,所述方法還包括步驟:
當(dāng)待測用戶所處的年級為N,設(shè)置大于N到最高年級之間的全部知識點為未掌握;對于最低年級至年級N的每個知識點采用神經(jīng)網(wǎng)絡(luò)模型進行預(yù)測。
本發(fā)明通過提煉的影響因子和設(shè)計的多層神經(jīng)網(wǎng)絡(luò)模型,經(jīng)線下訓(xùn)練后,保存收斂后的網(wǎng)絡(luò)參數(shù)。在進行知識點摸底時,可以把待測用戶的與待測知識點相關(guān)的影響因子輸入到已訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型中,通過算法計算直接摸底出用戶對知識點的掌握情況,能夠快速對用戶知識點進行摸底。上述對知識點的摸底方法相較于原有做題的方式而言,大大縮短了摸底時長,提升了效率,有效增強了用戶體驗,具有廣泛的市場前景。
附圖說明
圖1為多層神經(jīng)網(wǎng)絡(luò)模型的建模原理圖;
圖2為本發(fā)明一實施方式涉及的基于影響因子和神經(jīng)網(wǎng)絡(luò)的知識點摸底方法的流程圖;
圖3為本發(fā)明另一實施方式涉及的基于影響因子和神經(jīng)網(wǎng)絡(luò)的知識點摸底方法的流程圖;
圖4為本發(fā)明一實施方式涉及的基于影響因子和神經(jīng)網(wǎng)絡(luò)的知識點摸底方法的流程圖。
具體實施方式
為詳細(xì)說明技術(shù)方案的技術(shù)內(nèi)容、構(gòu)造特征、所實現(xiàn)目的及效果,以下結(jié)合具體實施例并配合附圖詳予說明。
請參閱圖2,本發(fā)明一實施方式所述的基于影響因子和神經(jīng)網(wǎng)絡(luò)的知識點摸底方法的流程圖。所述方法包括以下步驟:
首先進入步驟S201對知識點的影響因子進行量化,并根據(jù)量化后的影響因子,建立多層神經(jīng)網(wǎng)絡(luò)模型。在本實施方式中,所述知識點的影響因子包括用戶自身綜合素質(zhì)、用戶家庭教育程度、用戶學(xué)校教育程度、用戶社會教育程度以及學(xué)科。
本發(fā)明是針對指定的學(xué)科知識進行摸底,因而“學(xué)科”的分類是知識點的影響因子之一,另外各個知識點的難易程度也不相同,因而“知識點”本身也是影響因子之一;用戶自身綜合素質(zhì)對知識點摸底的影響因子包括學(xué)商、智商、性別等;用戶家庭教育對知識點摸底的影響因子包括雙親是否健在、母親對教育的態(tài)度、父親對教育的態(tài)度、母親文化程度、父親文化程度、母親職業(yè)、父親職業(yè)等;用戶學(xué)校教育對知識點摸底的影響因子包括:學(xué)校類型、當(dāng)前就讀年級、近幾年期末考試成績均值、在班級中的成績排名等;用戶社會教育對知識點摸底的影響因子包括生源地等。
為了便于處理,需要對上述知識點的影響因子進行量化,即將上述影響因子數(shù)據(jù)化,用不同的數(shù)值來對應(yīng)不同的影響因子,以便進行后續(xù)處理。例如對“知識點”的量化,具體包括:首先對所有知識點進行分類,通常高年級的知識點比低年級更難掌握,高年級的知識點難度越高,因此將知識點量化值按最高年級到最低年級進行編號,越靠后的知識點取值越小。再比如影響因子用戶學(xué)校教育程度中的學(xué)校類型這一項,在進行量化時包括將學(xué)校類型按照一級達標(biāo)、二級達標(biāo)、三級達標(biāo)、其他等類型進行劃分。再比如對影響因子生源地的劃分,可以按照城市類別來劃分,如一線城市、二線城市、三線城市等等。其他影響因子的分類可以根據(jù)實際需要同理可得,此處不再贅述。
影響因子量化完成后,就需要根據(jù)影響因子建立多層神經(jīng)網(wǎng)絡(luò)模型。請參閱圖1,為多層神經(jīng)網(wǎng)絡(luò)模型的建模原理圖。在本實施方式中,根據(jù)影響因子建立多層神經(jīng)網(wǎng)絡(luò)模型具體包括以下步驟:
輸入層神經(jīng)元個數(shù)為m個,m為知識點的影響因子個數(shù),采用的是線性恒等激勵函數(shù),對應(yīng)輸入樣本Xi(i=1,2,…,m)的維數(shù)為m,輸入向量X=[x1,x2,…,xm],單個節(jié)點為xi;
隱含層神經(jīng)元個數(shù)為n個,采用的是單極S型激勵函數(shù)f,對應(yīng)輸出樣本Yj(j=1,2,…,n)的維數(shù)為n,隱含層神經(jīng)元向量Y=[y1,y2,…,yn],單個節(jié)點為yj;
輸出層神經(jīng)元個數(shù)為p個,采用的是線性傳遞激勵函數(shù)g,對應(yīng)輸出樣本Zk(k=1,2,…,p)的維數(shù)為p,輸出層向量Z=[z1,z2,…,zp],單個節(jié)點為zk,輸出層期望值為tk;
各神經(jīng)元間連接權(quán)值用Wij和進行Vjk進行表示,其中:Wij為輸入層的第i個神經(jīng)元到隱含層的第j個神經(jīng)元的權(quán)值,Vjk為隱含層的第j個神經(jīng)元到輸出層的第k個神經(jīng)元的權(quán)值;隱含層神經(jīng)元j的閾值用θj表示,輸出層神經(jīng)元k的閾值用表示;隱含層yj表示第j個神經(jīng)元的輸出,信號由隱含層傳遞到輸出層,作為輸出層的輸入;而輸出層zk表示第k個神經(jīng)元的實際輸出,tk表示期望輸出結(jié)果;輸入層到隱含層的學(xué)習(xí)率用α表示,隱含層到輸出層的學(xué)習(xí)率用β表示。學(xué)習(xí)率α、β表示閾值修正速度,所述閾值為神經(jīng)網(wǎng)絡(luò)模型的網(wǎng)絡(luò)參數(shù)之一,學(xué)習(xí)率的值太大會導(dǎo)致網(wǎng)絡(luò)動蕩,太小又會使收斂速度降低。因而在本實施方式中,學(xué)習(xí)率α、β滿足以下條件:0<α、β<=1。
而后進入步驟S202將訓(xùn)練樣本參數(shù)輸入到所建立的多層神經(jīng)網(wǎng)絡(luò)模型,并在訓(xùn)練得出的網(wǎng)絡(luò)誤差小于第一預(yù)設(shè)誤差時,停止訓(xùn)練,并保存神經(jīng)網(wǎng)絡(luò)模型對應(yīng)的網(wǎng)絡(luò)參數(shù);所述網(wǎng)絡(luò)誤差是指樣本參數(shù)輸入神經(jīng)網(wǎng)絡(luò)模型后的實際輸出與期望輸出的誤差。請參閱圖3,所述“將訓(xùn)練樣本參數(shù)輸入到所建立的多層神經(jīng)網(wǎng)絡(luò)模型,并在訓(xùn)練得出的網(wǎng)絡(luò)誤差小于第一預(yù)設(shè)誤差時,停止訓(xùn)練,并保存神經(jīng)網(wǎng)絡(luò)模型對應(yīng)的網(wǎng)絡(luò)參數(shù)”包括以下步驟:
步驟S1:初始化網(wǎng)絡(luò)參數(shù);具體包括:
S11:使用隨機值初始化網(wǎng)絡(luò)參數(shù),所述網(wǎng)絡(luò)參數(shù)包括:權(quán)值矩陣Wij和Vjk,學(xué)習(xí)率α、β,閥值θj和動量項其中,0<α、β≤1且β>α;
S12:確定隱含層激勵函數(shù),函數(shù)f選擇為:
γ是陡度因子,取值范圍是0.35≤γ≤0.7;
S13:確定輸出層激勵函數(shù),函數(shù)g選擇為:
γ是陡度因子,取值范圍是0.35≤γ≤0.7;
步驟S2:輸入訓(xùn)練樣本,對輸入樣本參數(shù)進行歸一化處理。信號正向傳遞并計算模型各層輸出,其中,
隱含層第j個神經(jīng)元輸出可以通過以下方式實現(xiàn):
輸出層第k個神經(jīng)元輸出可以通過以下方式實現(xiàn):
步驟S3:計算網(wǎng)絡(luò)誤差E,計算公式如下:
步驟S4:判斷網(wǎng)絡(luò)誤差E是否小于第一預(yù)設(shè)誤差,若是則神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練結(jié)束,進入步驟S7;否則進入步驟S5;
步驟S5:將誤差E反向傳播并且更新網(wǎng)絡(luò)參數(shù);具體包括:
S51:確定誤差信號,具體公式如下:
輸出層神經(jīng)元誤差信號:δk=(tk-zk)*g′(netk);
隱含層神經(jīng)元誤差信號:
隱含層松緊變量取值的變化如下:
輸出層松緊變量τ取值的變化如下:
S52:將誤差反向傳播;具體包括:
更新動量項公式如下:
更新網(wǎng)絡(luò)參數(shù)包括對隱含層到輸出層的權(quán)值、輸入層到隱含層的權(quán)值、輸出層閾值、隱含層閾值、隱含層神經(jīng)元學(xué)習(xí)率α、輸出層神經(jīng)元學(xué)習(xí)率β等網(wǎng)絡(luò)參數(shù)進行調(diào)整,具體包括:
對隱含層到輸出層的權(quán)值進行調(diào)整,公式如下:
對輸入層到隱含層的權(quán)值進行調(diào)整,公式如下:
對輸出層閾值進行調(diào)整,公式如下:
對隱含層閾值進行調(diào)整,公式如下:
對隱含層神經(jīng)元學(xué)習(xí)率α進行調(diào)整,公式如下:
對輸出層神經(jīng)元學(xué)習(xí)率β進行調(diào)整,公式如下:
步驟S6:采用步驟S5更新后的網(wǎng)絡(luò)參數(shù)vjk,wij,θj,α,β,再次執(zhí)行步驟S2;直至計算出的網(wǎng)絡(luò)誤差E小于第一預(yù)設(shè)誤差,訓(xùn)練結(jié)束;或者,在網(wǎng)絡(luò)誤差E小于第一預(yù)設(shè)誤差時,還可以進入步驟S7;
步驟S7:將待測樣本輸入神經(jīng)網(wǎng)絡(luò)模型,觀察實際輸出與期望輸出的誤差,若兩者誤差大于第二預(yù)設(shè)誤差,則需要思考網(wǎng)絡(luò)模型設(shè)計,具體是對隱含層神經(jīng)元數(shù)目以及陡度因子γ進行調(diào)整,并重新執(zhí)行步驟S1至步驟S6;
步驟S8:當(dāng)多個待測樣本輸入神經(jīng)網(wǎng)絡(luò)模型后,所有待測樣本對應(yīng)的輸出與期望輸出的誤差均小于第二預(yù)設(shè)誤差時,測試訓(xùn)練結(jié)束,并保存網(wǎng)絡(luò)參數(shù),所述網(wǎng)絡(luò)參數(shù)包括當(dāng)前神經(jīng)網(wǎng)絡(luò)模型對應(yīng)的權(quán)值矩陣Wij和Vjk,學(xué)習(xí)率α、β,閥值θj和動量項其中,0<α、β≤1且β>α。
而后進入步驟S203根據(jù)所保存的網(wǎng)絡(luò)參數(shù)對神經(jīng)網(wǎng)絡(luò)模型進行初始化,并將待測用戶對應(yīng)的知識點的影響因子輸入到訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型中。所述“根據(jù)所保存的網(wǎng)絡(luò)參數(shù)對神經(jīng)網(wǎng)絡(luò)模型進行初始化”即將之前保存好的網(wǎng)絡(luò)參數(shù)作為神經(jīng)網(wǎng)絡(luò)模型的各個網(wǎng)絡(luò)參數(shù)的初始值。待測用戶對應(yīng)的知識點的影響因子可以在待測用戶注冊時對該用戶的所有影響因子進行收集,作為網(wǎng)絡(luò)輸入的一部分。
而后進入步驟S204神經(jīng)網(wǎng)絡(luò)模型根據(jù)待測用戶對應(yīng)的知識點的影響因子對待測用戶是否掌握該知識點進行預(yù)測,并保存預(yù)測結(jié)果。在本實施方式中,所述“神經(jīng)網(wǎng)絡(luò)模型根據(jù)待測用戶對應(yīng)的知識點的影響因子對待測用戶是否掌握該知識點進行預(yù)測”具體包括:
隱含層第j個神經(jīng)元輸出:
輸出層第k個神經(jīng)元輸出:
至此,通過提煉的影響因子和設(shè)計的多層神經(jīng)網(wǎng)絡(luò)模型,并將待測用戶的影響因子輸入至訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型中,并通過相關(guān)算法計算即可摸底出用戶對知識點的掌握情況,能夠快速對用戶知識點進行摸底。
請參閱圖4,所述影響因子包括用戶所處的年級,所述方法還包括步驟:當(dāng)待測用戶所處的年級為N,設(shè)置大于N到最高年級之間的全部知識點為未掌握;對于最低年級至年級N的每個知識點采用神經(jīng)網(wǎng)絡(luò)模型進行預(yù)測。為了加快神經(jīng)網(wǎng)絡(luò)模型快速預(yù)測出結(jié)果,減少不必要的計算,因而在本實施方式中,超過用戶所處年級的知識點屬于超綱范圍,預(yù)測結(jié)果均列為待測用戶未掌握該知識點,即只對最低年級至待測用戶所處的年級的知識點進行摸底預(yù)測。完整的摸底預(yù)測流程如圖4所示,包括以下步驟:
步驟S301:用戶注冊時收集所有影響因子作為網(wǎng)絡(luò)輸入的一部分;假設(shè)當(dāng)前用戶所處的年級為N,進入步驟S303:設(shè)置大于N到最高年級之間的全部知識點為未掌握;以及步驟S304:對最低年級到N的每個知識點都作歸一化處理;
在步驟S304后可以進入步驟S305:根據(jù)訓(xùn)練好的網(wǎng)絡(luò)參數(shù)對網(wǎng)絡(luò)模型進行初始化;初始化的方法如步驟S203;
步驟S306:將每一個歸一化后的知識點送入網(wǎng)絡(luò)進行預(yù)測;預(yù)測的方法如步驟S204;
步驟S307:保存預(yù)測結(jié)果;該預(yù)測結(jié)果具體包括了以下內(nèi)容:最低年級到N的每個知識點哪些是用戶已掌握的,哪些是用戶未掌握的;
步驟S308:合并預(yù)測結(jié)果;即將步驟S303與步驟S307所得到的知識點的掌握情況匯總合并,得到最終的預(yù)測結(jié)果,并將最終的預(yù)測結(jié)果輸出。
本發(fā)明通過提煉的影響因子和設(shè)計的多層神經(jīng)網(wǎng)絡(luò)模型,經(jīng)線下訓(xùn)練后,保存收斂后的網(wǎng)絡(luò)參數(shù)。在進行知識點摸底時,可以把待測用戶的與待測知識點相關(guān)的影響因子輸入到已訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型中,通過算法計算直接摸底出用戶對知識點的掌握情況,能夠快速對用戶知識點進行摸底。上述對知識點的摸底方法相較于原有做題的方式而言,大大縮短了摸底時長,提升了效率,有效增強了用戶體驗,具有廣泛的市場前景。
需要說明的是,在本文中,諸如第一和第二等之類的關(guān)系術(shù)語僅僅用來將一個實體或者操作與另一個實體或操作區(qū)分開來,而不一定要求或者暗示這些實體或操作之間存在任何這種實際的關(guān)系或者順序。而且,術(shù)語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、物品或者終端設(shè)備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、物品或者終端設(shè)備所固有的要素。在沒有更多限制的情況下,由語句“包括……”或“包含……”限定的要素,并不排除在包括所述要素的過程、方法、物品或者終端設(shè)備中還存在另外的要素。此外,在本文中,“大于”、“小于”、“超過”等理解為不包括本數(shù);“以上”、“以下”、“以內(nèi)”等理解為包括本數(shù)。
本領(lǐng)域內(nèi)的技術(shù)人員應(yīng)明白,上述各實施例可提供為方法、裝置、或計算機程序產(chǎn)品。這些實施例可采用完全硬件實施例、完全軟件實施例、或結(jié)合軟件和硬件方面的實施例的形式。上述各實施例涉及的方法中的全部或部分步驟可以通過程序來指令相關(guān)的硬件來完成,所述的程序可以存儲于計算機設(shè)備可讀取的存儲介質(zhì)中,用于執(zhí)行上述各實施例方法所述的全部或部分步驟。所述計算機設(shè)備,包括但不限于:個人計算機、服務(wù)器、通用計算機、專用計算機、網(wǎng)絡(luò)設(shè)備、嵌入式設(shè)備、可編程設(shè)備、智能移動終端、智能家居設(shè)備、穿戴式智能設(shè)備、車載智能設(shè)備等;所述的存儲介質(zhì),包括但不限于:RAM、ROM、磁碟、磁帶、光盤、閃存、U盤、移動硬盤、存儲卡、記憶棒、網(wǎng)絡(luò)服務(wù)器存儲、網(wǎng)絡(luò)云存儲等。
上述各實施例是參照根據(jù)實施例所述的方法、設(shè)備(系統(tǒng))、和計算機程序產(chǎn)品的流程圖和/或方框圖來描述的。應(yīng)理解可由計算機程序指令實現(xiàn)流程圖和/或方框圖中的每一流程和/或方框、以及流程圖和/或方框圖中的流程和/或方框的結(jié)合。可提供這些計算機程序指令到計算機設(shè)備的處理器以產(chǎn)生一個機器,使得通過計算機設(shè)備的處理器執(zhí)行的指令產(chǎn)生用于實現(xiàn)在流程圖一個流程或多個流程和/或方框圖一個方框或多個方框中指定的功能的裝置。
這些計算機程序指令也可存儲在能引導(dǎo)計算機設(shè)備以特定方式工作的計算機設(shè)備可讀存儲器中,使得存儲在該計算機設(shè)備可讀存儲器中的指令產(chǎn)生包括指令裝置的制造品,該指令裝置實現(xiàn)在流程圖一個流程或多個流程和/或方框圖一個方框或多個方框中指定的功能。
這些計算機程序指令也可裝載到計算機設(shè)備上,使得在計算機設(shè)備上執(zhí)行一系列操作步驟以產(chǎn)生計算機實現(xiàn)的處理,從而在計算機設(shè)備上執(zhí)行的指令提供用于實現(xiàn)在流程圖一個流程或多個流程和/或方框圖一個方框或多個方框中指定的功能的步驟。
盡管已經(jīng)對上述各實施例進行了描述,但本領(lǐng)域內(nèi)的技術(shù)人員一旦得知了基本創(chuàng)造性概念,則可對這些實施例做出另外的變更和修改,所以以上所述僅為本發(fā)明的實施例,并非因此限制本發(fā)明的專利保護范圍,凡是利用本發(fā)明說明書及附圖內(nèi)容所作的等效結(jié)構(gòu)或等效流程變換,或直接或間接運用在其他相關(guān)的技術(shù)領(lǐng)域,均同理包括在本發(fā)明的專利保護范圍之內(nèi)。