人物動作的識別方法及裝置的制造方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及圖像識別領(lǐng)域,具體而言,涉及一種人物動作的識別方法及裝置。
【背景技術(shù)】
[0002]目前,相關(guān)技術(shù)中主要使用色彩圖來識別人物動作,其在人物提取W及動作表現(xiàn) 上均會受到環(huán)境光W及陰影等多方面因素的影響,穩(wěn)定性較差。
[0003] 另外,相關(guān)技術(shù)中所生成的動作模型無法識別連續(xù)的人物動作,而且,對于人物動 作識別必須設(shè)定初始狀態(tài)和結(jié)束狀態(tài)。
【發(fā)明內(nèi)容】
[0004] 本發(fā)明提供了一種人物動作的識別方法及裝置,W至少解決相關(guān)技術(shù)中在人物連 續(xù)運(yùn)動時無法識別出人物動作的問題。
[0005] 根據(jù)本發(fā)明的一個方面,提供了 一種人物動作的識別方法。
[0006] 根據(jù)本發(fā)明實(shí)施例的人物動作的識別方法包括;采用全部表征人物與圖像采集設(shè) 備之間距離的深度圖像集合訓(xùn)練姿勢模型;通過訓(xùn)練得到的姿勢模型計(jì)算動作模型;根據(jù) 訓(xùn)練得到的姿勢模型W及計(jì)算得到的動作模型,采用預(yù)設(shè)算法對實(shí)時采集的深度圖像中的 人物動作進(jìn)行識別。
[0007] 優(yōu)選地,采用深度圖像集合訓(xùn)練姿勢模型包括;計(jì)算深度圖像集合中每一幅深度 圖像的人物身高;采用計(jì)算出的人物身高對該幅深度圖像進(jìn)行歸一化處理;將經(jīng)過歸一化 處理后的深度圖像分別向H維直角坐標(biāo)系中的XY、XZ和YZH個平面進(jìn)行投影,得到二維投 影圖像集合,其中,分別計(jì)算二維投影圖像集合中的每幅二維投影圖像的輪廓,并對輪廓的 像素點(diǎn)進(jìn)行隨機(jī)均勻采樣;將經(jīng)過采樣處理后的樣本像素點(diǎn)作為特征進(jìn)行聚類處理;分別 對聚類處理結(jié)果中的每個類別使用最大期望算法訓(xùn)練得到高斯混合模型。
[000引優(yōu)選地,在聚類處理中使用的距離度量為;du=(l+exp(-a(屯的,切-目 其中,a和目為常數(shù),和fj.為兩個不同的作為特征的樣本像素點(diǎn),
d(a,b)為像素 點(diǎn)a與像素點(diǎn)b之間的歐氏距離。
[0009] 優(yōu)選地,通過訓(xùn)練得到的姿勢模型計(jì)算動作模型包括;對于動作稱的每一個訓(xùn)練 樣本,按照深度圖像集合中各個深度圖像的先后順序依次使用每個姿勢模型對深度圖Xk進(jìn) 行預(yù)測,其中,Xk的姿勢類別為argmax己Pr(/j=夢,|藻*,料,)Pi為第i個姿勢模 型,C為姿勢模型的數(shù)量;根據(jù)動作耕^的姿勢序列1確定動作伊/的動作模型,其中,對 姿勢序列中相同的相鄰兩個姿勢進(jìn)行合并。
[0010] 優(yōu)選地,采用預(yù)設(shè)算法對人物動作進(jìn)行識別包括:依次使用每個姿勢模型Pi對實(shí) 時采集的深度圖像X進(jìn)行預(yù)測;將滿足max{Pr(XIPi)}〉THp的預(yù)測概率最大的k個姿勢模型 放入緩沖區(qū),其中,THp為第一預(yù)設(shè)闊值,k為正整數(shù);當(dāng)緩沖區(qū)被填滿時,執(zhí)行字符串快速匹 配算法,依次使用每個動作模型進(jìn)行匹配,如果max{Pr({xjI1)},則返回識別成功 的動作<p二argmaxf=!Pr((p二AI扣.},A)其中,77/為第二預(yù)設(shè)闊值,{xj為待匹 , 配的姿勢序列,L為動作數(shù)量。
[0011] 根據(jù)本發(fā)明的另一方面,提供了一種人物動作的識別裝置。
[0012] 根據(jù)本發(fā)明實(shí)施例的人物動作的識別裝置包括;訓(xùn)練模塊,用于采用全部表征人 物與圖像采集設(shè)備之間距離的深度圖像集合訓(xùn)練姿勢模型;計(jì)算模塊,用于通過訓(xùn)練得到 的姿勢模型計(jì)算動作模型;識別模塊,用于根據(jù)訓(xùn)練得到的姿勢模型W及計(jì)算得到的動作 模型,采用預(yù)設(shè)算法對實(shí)時采集的深度圖像中的人物動作進(jìn)行識別。
[0013] 優(yōu)選地,訓(xùn)練模塊包括:計(jì)算單元,用于計(jì)算深度圖像集合中每一幅深度圖像的人 物身高;第一處理單元,用于采用計(jì)算出的人物身高對該幅深度圖像進(jìn)行歸一化處理;第 二處理單元,用于將經(jīng)過歸一化處理后的深度圖像分別向H維直角坐標(biāo)系中的XY、XZ和YZ H個平面進(jìn)行投影,得到二維投影圖像集合,其中,分別計(jì)算二維投影圖像集合中的每幅二 維投影圖像的輪廓,并對輪廓的像素點(diǎn)進(jìn)行隨機(jī)均勻采樣;第H處理單元,用于將經(jīng)過采樣 處理后的樣本像素點(diǎn)作為特征進(jìn)行聚類處理;訓(xùn)練單元,用于分別對聚類處理結(jié)果中的每 個類別使用最大期望算法訓(xùn)練得到高斯混合模型。
[0014] 優(yōu)選地,第立處理單元,用于在聚類處理中使用的距離度量為: du=(l+exp(-a(屯化,fj)-目)))-1,
[001引其中,a和目為常數(shù),和fj.為兩個不同的作為特征的樣本像素點(diǎn),
d(a,b)為像 素點(diǎn)a與像素點(diǎn)b之間的歐氏距離。
[0016] 優(yōu)選地,計(jì)算模塊包括;第一預(yù)測單元,用于對于動作鶴的每一個訓(xùn)練樣本,按照 深度圖像集合中各個深度圖像的先后順序依次使用每個姿勢模型對深度圖Xk進(jìn)行預(yù)測,其
中,Xk的姿勢類別戸^為 Pi為第i個姿勢模型,C為姿 馬 勢模型的數(shù)量;確定單元,用于根據(jù)動作^^/的姿勢序列{^^,.^確定動作巧的動作模型,其 中,對姿勢序列中相同的相鄰兩個姿勢進(jìn)行合并。
[0017] 優(yōu)選地,識別模塊包括;第二預(yù)測單元,用于依次使用每個姿勢模型Pi對實(shí)時采集 的深度圖像X進(jìn)行預(yù)測;第四處理單元,用于將滿足max{Pr(XIPi)}〉THp的預(yù)測概率最大的 k個姿勢模型放入緩沖區(qū),
[0018] 其中,THp為第一預(yù)設(shè)闊值,k為正整數(shù);識別單元,用于當(dāng)緩沖區(qū)被填滿時,執(zhí)行 字符串快速匹配算法,依次使用每個動作模型進(jìn)行匹配,如果max{Pr({xk}I ,則 返回識別成功的動作0二argnuix,L|Pr(非二巧,巧.)其中,得為第二預(yù)設(shè)闊 值,IxJ為待匹配的姿勢序列,L為動作數(shù)量。
[0019] 通過本發(fā)明實(shí)施例,先采用全部表征人物與圖像采集設(shè)備之間距離的深度圖像集 合訓(xùn)練姿勢模型;再通過訓(xùn)練得到的姿勢模型計(jì)算動作模型;最后根據(jù)訓(xùn)練得到的姿勢模 型W及計(jì)算得到的動作模型,采用預(yù)設(shè)算法對實(shí)時采集的深度圖像中的人物動作進(jìn)行識 另IJ,由此解決了相關(guān)技術(shù)中在人物連續(xù)運(yùn)動時無法識別出人物動作的問題,進(jìn)而大幅度減 少了動作識別時的計(jì)算量,提高了動作識別的準(zhǔn)確度,可W方便地在模型中加入新動作。
【附圖說明】
[0020] 此處所說明的附圖用來提供對本發(fā)明的進(jìn)一步理解,構(gòu)成本申請的一部分,本發(fā) 明的示意性實(shí)施例及其說明用于解釋本發(fā)明,并不構(gòu)成對本發(fā)明的不當(dāng)限定。在附圖中:
[0021] 圖1是根據(jù)本發(fā)明實(shí)施例的人物動作的識別方法的流程圖;
[0022] 圖2是根據(jù)本發(fā)明實(shí)施例的人物動作的識別裝置的結(jié)構(gòu)框圖;
[0023] 圖3是根據(jù)本發(fā)明優(yōu)選實(shí)施例的人物動作的識別裝置的結(jié)構(gòu)框圖。
【具體實(shí)施方式】
[0024] 下文中將參考附圖并結(jié)合實(shí)施例來詳細(xì)說明本發(fā)明。需要說明的是,在不沖突的 情況下,本申請中的實(shí)施例及實(shí)施例中的特征可W相互組合。
[0025] 圖1是根據(jù)本發(fā)明實(shí)施例的人物動作的識別方法的流程圖。如圖1所示,該方法 可W包括W下處理步驟:
[0026] 步驟S102 ;采用全部表征人物與圖像采集設(shè)備之間距離的深度圖像集合訓(xùn)練姿 勢模型;
[0027] 步驟S104;通過訓(xùn)練得到的姿勢模型計(jì)算動作模型;
[0028] 步驟S106 ;根據(jù)訓(xùn)練得到的姿勢模型W及計(jì)算得到的動作模型,采用預(yù)設(shè)算法對 實(shí)時采集的深度圖像中的人物動作進(jìn)行識別。
[0029] 相關(guān)技術(shù)中,在人物連續(xù)運(yùn)動時無法識別出人物動作。采用如圖1所示的方法,先 采用全部表征人物與圖像采集設(shè)備之間距離的深度圖像集合訓(xùn)練姿勢模型;再通過訓(xùn)練得 到的姿勢模型計(jì)算動作模型;最后根據(jù)訓(xùn)練得到的姿勢模型W及計(jì)算得到的動作模型,采 用預(yù)設(shè)算法對實(shí)時采集的深度圖像中的人物動作進(jìn)行識別,由此解決了相關(guān)技術(shù)中在人物 連續(xù)運(yùn)動時無法識別出人物動作的問題,在給定人物深度信息的情況下,能夠完成對人物 動作的實(shí)時識別,不但解決了使用色彩圖難于識別人物動作的問題,而且在各種場景中均 可W確保較好的穩(wěn)定性和準(zhǔn)確性,同時還會使得人機(jī)交互的體驗(yàn)更加自然。<