基于專(zhuān)家系統(tǒng)的人臉表情圖像識(shí)別方法
【專(zhuān)利摘要】本發(fā)明涉及一種基于專(zhuān)家系統(tǒng)的人臉表情圖像識(shí)別方法,該方法通過(guò)建立在表情圖像處理方法和傳統(tǒng)計(jì)算機(jī)程序功能的基礎(chǔ)上的專(zhuān)家系統(tǒng)對(duì)預(yù)處理的圖像進(jìn)行推理識(shí)別人臉表情,所述方法包括以下步驟:1)從視頻中捕捉圖像,獲得該視頻中的用戶(hù)信息,然后通過(guò)圖像處理,圖像特征提取,進(jìn)行身份驗(yàn)證,獲取用戶(hù)的表情圖像特征參數(shù),確定用戶(hù)表情庫(kù),建立識(shí)別人臉表情專(zhuān)家系統(tǒng);2)對(duì)從視頻中捕捉的圖像進(jìn)行圖像處理和圖像特征提取,獲得用戶(hù)表情程度最大化時(shí)的特征參數(shù),將特征參數(shù)與步驟1)確定的用戶(hù)表情庫(kù)中的表情訓(xùn)練樣本參數(shù)進(jìn)行比對(duì),經(jīng)過(guò)專(zhuān)家系統(tǒng)推理機(jī)的推理最終輸出表情識(shí)別的統(tǒng)計(jì)結(jié)果。與現(xiàn)有技術(shù)相比,本發(fā)明具有識(shí)別速度快等優(yōu)點(diǎn)。
【專(zhuān)利說(shuō)明】基于專(zhuān)家系統(tǒng)的人臉表情圖像識(shí)別方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及一種專(zhuān)家系統(tǒng)應(yīng)用技術(shù),尤其是涉及一種基于專(zhuān)家系統(tǒng)的人臉表情圖像識(shí)別方法。
【背景技術(shù)】
[0002]專(zhuān)家系統(tǒng)是一類(lèi)具有專(zhuān)門(mén)知識(shí)和經(jīng)驗(yàn)的計(jì)算機(jī)智能程序系統(tǒng),通過(guò)對(duì)人類(lèi)專(zhuān)家的問(wèn)題求解能力的建模,采用人工智能中的知識(shí)表示和知識(shí)推理技術(shù)來(lái)模擬通常由專(zhuān)家才能解決的復(fù)雜問(wèn)題,達(dá)到具有與專(zhuān)家同等解決問(wèn)題能力的水平。這種基于知識(shí)的系統(tǒng)設(shè)計(jì)方法是以知識(shí)庫(kù)和推理機(jī)為中心而展開(kāi)。它把知識(shí)從系統(tǒng)中與其他部分分離開(kāi)來(lái)。專(zhuān)家系統(tǒng)強(qiáng)調(diào)的是知識(shí)而不是方法。很多問(wèn)題沒(méi)有基于算法的解決方案,或算法方案太復(fù)雜,采用專(zhuān)家系統(tǒng),可以利用人類(lèi)專(zhuān)家擁有豐富的知識(shí),因此專(zhuān)家系統(tǒng)也稱(chēng)為基于知識(shí)的系統(tǒng)。
[0003]目前,隨著科技的發(fā)展,康復(fù)護(hù)理智能床日益普及。然而患者中,有很大一部分人不能通過(guò)肢體或語(yǔ)言準(zhǔn)確的向外界表達(dá)自己的意圖。對(duì)每個(gè)人來(lái)說(shuō),不同的表情代表不同的狀態(tài)。當(dāng)語(yǔ)言和肢體不能傳達(dá)時(shí),我們可以通過(guò)表情來(lái)識(shí)別患者的想法,完成相應(yīng)的操作。市面上護(hù)理床操作者都是護(hù)理人員,而忽略了患者的本身意愿。我們本著以人為本的設(shè)計(jì)理念,通過(guò)表情識(shí)別技術(shù)的專(zhuān)家系統(tǒng),使得行動(dòng)不方便的患者也可自行操作護(hù)理床。
【發(fā)明內(nèi)容】
[0004]本發(fā)明的目的就是為了克服上述現(xiàn)有技術(shù)存在的缺陷而提供一種基于專(zhuān)家系統(tǒng)的具有學(xué)習(xí)功能并能快速準(zhǔn)確識(shí)別人臉表情的人臉表情圖像識(shí)別方法。
[0005]本發(fā)明的目的可以通過(guò)以下技術(shù)方案來(lái)實(shí)現(xiàn):
[0006]一種基于專(zhuān)家系統(tǒng)的人臉表情圖像識(shí)別方法,該方法通過(guò)建立在表情圖像處理方法和傳統(tǒng)計(jì)算機(jī)程序功能的基礎(chǔ)上的用于人臉表情識(shí)別的專(zhuān)家系統(tǒng)對(duì)預(yù)處理的圖像進(jìn)行推理識(shí)別人臉表情,所述方法包括以下步驟:
[0007]I)從視頻中捕捉圖像,獲得該視頻中的用戶(hù)信息,然后通過(guò)圖像處理,圖像特征提取,進(jìn)行身份驗(yàn)證,獲取用戶(hù)的表情圖像特征參數(shù),確定用戶(hù)表情庫(kù),建立識(shí)別人臉表情專(zhuān)家系統(tǒng);
[0008]2)對(duì)從視頻中捕捉的圖像進(jìn)行圖像處理和圖像特征提取,獲得用戶(hù)表情程度最大化時(shí)的特征參數(shù),將特征參數(shù)與步驟I)確定的用戶(hù)表情庫(kù)中的表情訓(xùn)練樣本參數(shù)進(jìn)行比對(duì),經(jīng)過(guò)專(zhuān)家系統(tǒng)推理機(jī)的推理最終輸出表情識(shí)別的統(tǒng)計(jì)結(jié)果。
[0009]所述步驟I)中建立識(shí)別人臉表情圖像專(zhuān)家系統(tǒng)具體包括步驟:
[0010]11)獲取人臉表情圖像;
[0011]12)對(duì)人臉表情圖像預(yù)處理;
[0012]13)提取人臉表情圖像特征;
[0013]14)建立人臉表情專(zhuān)家系統(tǒng)規(guī)則庫(kù)并將步驟13)中提取的特征參數(shù)存入到規(guī)則庫(kù)中。
[0014]所述步驟2)中表情識(shí)別獲取人臉表情圖像識(shí)別結(jié)果具體包括步驟:
[0015]21)獲取用戶(hù)的表情圖像:視頻信息接收后,從視頻信息中捕捉圖像,獲取用戶(hù)的表情圖像。
[0016]22)對(duì)步驟21)中獲取的人臉表情圖像,進(jìn)行圖像預(yù)處理;
[0017]23)對(duì)步驟22)中獲得的眼部和嘴部的圖像進(jìn)行特征提取;
[0018]24)表情識(shí)別:將步驟23)中得到的特征參數(shù)輸入到識(shí)別人臉表情圖像專(zhuān)家系統(tǒng)中并與專(zhuān)家系統(tǒng)規(guī)則庫(kù)中存儲(chǔ)的面部表情特征參數(shù)進(jìn)行對(duì)比,經(jīng)過(guò)專(zhuān)家系統(tǒng)中推理機(jī)的推理并輸出推理結(jié)果。
[0019]所述步驟12)和步驟22)和中人臉表情圖像的預(yù)處理具體包括圖像去噪、尺度歸一化、灰度歸一化、圖像分割和圖像二值化;
[0020]所述圖像去噪后得到去噪后的圖像g(i,j)為:
[0021]g(i, j) =Σ f(i, j)/N, (i, j) e M
[0022]其中:f (i,j)為給定的含有噪聲的圖像,M是所取鄰域中各鄰近像素的坐標(biāo),N是鄰域中包含的鄰近像素的個(gè)數(shù);
[0023]所述尺度歸一化后得到目標(biāo)圖像g(x,y)為:
[0024]g(x, y) = f (x/a+x0, y/a+y0)
[0025]其中:f(x,y)為歸一化前圖像,(XQ,yQ)為圖片目標(biāo)區(qū)域的重心,a為尺度因子,所述尺度因子為:
[0026]a = sqrt (T/m)
[0027]其中:m為目標(biāo)圖像的面積;T為歸一化前圖像的面積
[0028]所述灰度歸一化為分段線(xiàn)性灰度變換方法;
[0029]所述圖像分割技術(shù)為串行區(qū)域分割技術(shù),通過(guò)對(duì)嘴巴和眼睛目標(biāo)區(qū)域的直接檢測(cè)來(lái)對(duì)圖像進(jìn)行分割。
[0030]所述圖像二值化算法為二值化方法Otsu算法,使用灰度閾值將灰度圖像分成目標(biāo)部分和背景部分兩類(lèi)。
[0031]所述步驟13)和33)中人臉表情圖像特征包括左眼特征、右眼特征和嘴部特征,所述人臉表情圖像特征提取算法具體包括以下步驟:
[0032]201)對(duì)每一像素點(diǎn)計(jì)算相關(guān)矩陣M:
【權(quán)利要求】
1.一種基于專(zhuān)家系統(tǒng)的人臉表情圖像識(shí)別方法,其特征在于,該方法通過(guò)建立在表情圖像處理方法和傳統(tǒng)計(jì)算機(jī)程序功能的基礎(chǔ)上的用于人臉表情識(shí)別的專(zhuān)家系統(tǒng)對(duì)預(yù)處理的圖像進(jìn)行推理識(shí)別人臉表情,所述方法包括以下步驟: 1)從視頻中捕捉圖像,獲得該視頻中的用戶(hù)信息,然后通過(guò)圖像處理,圖像特征提取,進(jìn)行身份驗(yàn)證,獲取用戶(hù)的表情圖像特征參數(shù),確定用戶(hù)表情庫(kù),建立識(shí)別人臉表情專(zhuān)家系統(tǒng); 2)對(duì)從視頻中捕捉的圖像進(jìn)行圖像處理和圖像特征提取,獲得用戶(hù)表情程度最大化時(shí)的特征參數(shù),將特征參數(shù)與步驟I)確定的用戶(hù)表情庫(kù)中的表情訓(xùn)練樣本參數(shù)進(jìn)行比對(duì),經(jīng)過(guò)專(zhuān)家系統(tǒng)推理機(jī)的推理最終輸出表情識(shí)別的統(tǒng)計(jì)結(jié)果。
2.根據(jù)權(quán)利要求1所述的一種基于專(zhuān)家系統(tǒng)的人臉表情圖像識(shí)別方法,其特征在于,所述步驟I)中建立識(shí)別人臉表情圖像專(zhuān)家系統(tǒng)具體包括步驟: 11)獲取人臉表情圖像; 12)對(duì)人臉表情圖像預(yù)處理; 13)提取人臉表情圖像特征; 14)建立人臉表情專(zhuān)家系統(tǒng)規(guī)則庫(kù)并將步驟13)中提取的特征參數(shù)存入到規(guī)則庫(kù)中。
3.根據(jù)權(quán)利要求1所述的一種基于專(zhuān)家系統(tǒng)的人臉表情圖像識(shí)別方法,其特征在于,所述步驟2)中表情識(shí)別獲取人臉表情圖像識(shí)別結(jié)果具體包括步驟: 21)獲取用戶(hù)的表情圖像:視頻信息接收后,從視頻信息中捕捉圖像,獲取用戶(hù)的表情圖像。 22)對(duì)步驟21)中獲取的人臉表情圖像,進(jìn)行圖像預(yù)處理; 23)對(duì)步驟22)中獲得的眼部和嘴部的圖像進(jìn)行特征提取; 24)表情識(shí)別:將步驟23)中得到的特征參數(shù)輸入到識(shí)別人臉表情圖像專(zhuān)家系統(tǒng)中并與專(zhuān)家系統(tǒng)規(guī)則庫(kù)中存儲(chǔ)的面部表情特征參數(shù)進(jìn)行對(duì)比,經(jīng)過(guò)專(zhuān)家系統(tǒng)中推理機(jī)的推理并輸出推理結(jié)果。
4.根據(jù)權(quán)利要求2和3所述的一種基于專(zhuān)家系統(tǒng)的人臉表情圖像識(shí)別方法,其特征在于,所述步驟12)和步驟22)和中人臉表情圖像的預(yù)處理具體包括圖像去噪、尺度歸一化、灰度歸一化、圖像分割和圖像二值化; 所述圖像去噪后得到去噪后的圖像g(i,j)為: g(i,j) =Σ f(i, j)/N, (i, j) e M 其中:f(i,j)為給定的含有噪聲的圖像,M是所取鄰域中各鄰近像素的坐標(biāo),N是鄰域中包含的鄰近像素的個(gè)數(shù); 所述尺度歸一化后得到目標(biāo)圖像g(x,y)為: g(x, y) = f (x/a+x0, y/a+y0) 其中:f(x,y)為歸一化前圖像,(x0Jy0)為圖片目標(biāo)區(qū)域的重心,a為尺度因子,所述尺度因子為:
a = sqrt(T/m) 其中:m為目標(biāo)圖像的面積;T為歸一化前圖像的面積。 所述灰度歸一化為分段線(xiàn)性灰度變換方法; 所述圖像分割技術(shù)為串行區(qū)域分割技術(shù),通過(guò)對(duì)嘴巴和眼睛目標(biāo)區(qū)域的直接檢測(cè)來(lái)對(duì)圖像進(jìn)行分割; 所述圖像二值化算法為二值化方法Otsu算法,使用灰度閾值將灰度圖像分成目標(biāo)部分和背景部分兩類(lèi)。
5.根據(jù)權(quán)利要求2或3所述的一種基于專(zhuān)家系統(tǒng)的人臉表情圖像識(shí)別方法,其特征在于,所述步驟13)和33)中人臉表情圖像特征包括左眼特征、右眼特征和嘴部特征,所述人臉表情圖像特征提取算法具體包括以下步驟: 201)對(duì)每一像素點(diǎn)計(jì)算相關(guān)矩陣M:
其中:IX為X方向的差分,Iy為y方向的差分,W(x,y)為高斯函數(shù),具體為:
202)計(jì)算每像素點(diǎn)的Harris角點(diǎn)響應(yīng):R= (AB-CD)2-k(A+B)2 ; 203)在范圍內(nèi)尋找極大值點(diǎn),若Harris角點(diǎn)響應(yīng)大于閾值,所述閾值為w*w范圍內(nèi)極大值,則視為角點(diǎn),將眼部和嘴部的特征提取出來(lái)。
6.根據(jù)權(quán)利要求3所述的一種基于專(zhuān)家系統(tǒng)的人臉表情圖像識(shí)別方法,其特征在于,所述步驟24)結(jié)束后,系統(tǒng)將本次任務(wù)數(shù)據(jù)加入到規(guī)則庫(kù)中。
7.根據(jù)權(quán)利要求4所述的一種基于專(zhuān)家系統(tǒng)的人臉表情圖像識(shí)別方法,其特征在于,所述圖像二值化過(guò)程具體包括步驟: 101)計(jì)算圖像的平均灰度U為:
u=E i*n ⑴ / (M*N) 其中:M*N為圖像的像素個(gè)數(shù),n(i)為灰度為i的像素點(diǎn)的個(gè)數(shù); 102)確定灰度閾值t,所述灰度閾值t為使類(lèi)間方差G最大的值,所述類(lèi)間方差G為:
G = W1* (U1-U) * (U1-U) +w2* (U2-U) * (U2-U) 其中=W1為目標(biāo)像素占圖像的比例,W2為背景像素占圖像的比例,U1為目標(biāo)像素的平均灰度,U2為背景像素的平均灰度,所述目標(biāo)像素占圖像的比例W1和目標(biāo)像素的平均灰度U1分別為:
W1 = W1/ (M*N) U1 = Σ i*n (i) /W1, i > t 其中=W1為灰度值大于t的統(tǒng)計(jì)數(shù), 所述背景像素占圖像的比例W2和背景像素的平均灰度U2分別為:
w2 = W2/ (M*N) U2 = Σ i*n(i)/W2,i < t 其中:W2為灰度值小于t的統(tǒng)計(jì)數(shù); 103)將灰度值大于t的像素作為目標(biāo)像素,將灰度值小于t的像素作為背景像素對(duì)圖像進(jìn)行二值化。
【文檔編號(hào)】G06K9/62GK104077579SQ201410333366
【公開(kāi)日】2014年10月1日 申請(qǐng)日期:2014年7月14日 優(yōu)先權(quán)日:2014年7月14日
【發(fā)明者】程武山, 梁冬梅, 陳敏, 邵新發(fā), 孫啟峰 申請(qǐng)人:上海工程技術(shù)大學(xué)