專利名稱:個(gè)人身份驗(yàn)證方法和系統(tǒng)的制作方法
技術(shù)領(lǐng)域:
本發(fā)明涉及個(gè)人身份驗(yàn)證方法和系統(tǒng)。
基于生物統(tǒng)計(jì)信息的自動(dòng)個(gè)人身份驗(yàn)證和鑒別已在安全應(yīng)用中得到普及?,F(xiàn)有的商用系統(tǒng)利用了大量生物統(tǒng)計(jì)模式,包括語音特征、虹膜掃描和指紋。但是,作為生物統(tǒng)計(jì)信息源,人的臉部起著特別重要的作用,因?yàn)槟槻繄D像(例如照片)可以容易地得到,并攜帶可由未經(jīng)專家培訓(xùn)的人們例行用于識(shí)別的鑒別特征。這提供了人機(jī)緊密交互和協(xié)作的可能性。
不幸的是,迄今自動(dòng)臉部驗(yàn)證系統(tǒng)的性能一般都很差。雖然近幾年已取得了很大的進(jìn)展,但臉部驗(yàn)證仍是一個(gè)難題。為此,最近的范例之一是采用多個(gè)模式來取得穩(wěn)健性并提高性能。通常,語音和臉部數(shù)據(jù)相結(jié)合,以取得更好的驗(yàn)證率(即較低的錯(cuò)誤接受率和錯(cuò)誤拒絕率),具體描述見S.Ben-Yacoub等人所著“音頻視頻方式的人員認(rèn)證”(Computer Vision and Pattern Recognition,pp 580-585,June 1999,IEEE Computer Society)。不過,也對結(jié)合其他特征(包括例如臉部輪廓、唇動(dòng)力學(xué)信息和3D臉部信息)的優(yōu)點(diǎn)進(jìn)行了研究。雖然已證明這種多模式方法取得了重大改善,但仍需要提高生物測量構(gòu)成子系統(tǒng)的性能,以使出錯(cuò)率更低。這方面最近報(bào)道的一些進(jìn)展包括J.Kittler等人所著的“關(guān)于基于IDA的臉部驗(yàn)證的匹配記分”(British MachineVision Conference 2000,ed M.Mirmehdi and B.Thomas)論文中所述的進(jìn)展。
作為另一種提高性能的方向,已嘗試對多個(gè)決策系統(tǒng)的輸出加以綜合。此方法利用了根據(jù)多分類器融合(classifier fusion)而獲得的結(jié)果,多分類器融合參見J.Kittlet等人編輯的“多分類器系統(tǒng)”(Springer-Verlag,Berlin 2000)。通過綜合涉及真實(shí)性的多種意見,可以降低單個(gè)專家輸出的錯(cuò)誤方差,并取得更好的出錯(cuò)率。在J.Kittlet等人所著的“利用特定于客戶的fisher臉進(jìn)行臉部驗(yàn)證”(TheStatistics of Directions,Shapes and Images pages 63-66,2000,ed.J.T.Kent and R.G.Aykroyd)中表明,通過綜合多個(gè)不同臉部驗(yàn)證系統(tǒng)的得分,可以將最好專家的出錯(cuò)率降低42%以上。但是,這種專門設(shè)計(jì)的多個(gè)專家系統(tǒng)并不一定得到最佳解。
為了至少緩解上述問題,本發(fā)明提供一種采用糾錯(cuò)輸出編碼(ECOC)方法的個(gè)人身份驗(yàn)證方法和系統(tǒng)。ECOC是針對信道編碼開發(fā)的。ECOC的基本思想是,分配超出對源消息編碼所需的比特?cái)?shù)量的一些額外比特,以便提供糾錯(cuò)能力。在模式分類的上下文中,該思想意味著每類模式用比常規(guī)碼復(fù)雜的碼來表示,Zij=0 i≠j和Zij=1 i=j(luò)。實(shí)現(xiàn)這種容錯(cuò)碼(error resilient code)需要多于常規(guī)的分類器。
將ECOC分類方法應(yīng)用于臉部驗(yàn)證問題的主要困難為兩類問題(即包含客戶類(client class)和假冒者類),而ECOC只適合多類問題。可以對驗(yàn)證問題采用兩階段解決方案來克服此困難。在第一階段,可以將驗(yàn)證任務(wù)視為識(shí)別問題并可以設(shè)計(jì)ECOC來生成特定于類的鑒別式。事實(shí)上,只需要所聲稱的身份的類的鑒別式。在第二階段,假設(shè)所生成的鑒別式與特定客戶的響應(yīng)分布一致。
根據(jù)本發(fā)明,提供一種個(gè)人身份驗(yàn)證方法,用以參照表示個(gè)人臉部的不同訓(xùn)練圖像類來評估輸入臉部圖像的真實(shí)性,此方法包括處理表示輸入臉部圖像的圖像數(shù)據(jù),以生成第一糾錯(cuò)輸出碼(ECOC)分類器輸出向量,處理表示所述類的不同訓(xùn)練圖像的圖像數(shù)據(jù),以生成第二ECOC分類器輸出向量集,將所述第一ECOC分類器輸出向量與所述第二ECOC分類器輸出向量集比較,以及根據(jù)所述比較結(jié)果評估所述輸入臉部圖像相對于所述訓(xùn)練圖像類的真實(shí)性。
本發(fā)明提供一種有效的設(shè)計(jì),它利用ECOC分類器的具有吸引力的特性,但同時(shí)適用于兩類個(gè)人身份驗(yàn)證問題。此設(shè)計(jì)方法已經(jīng)利用洛桑(Lausanne)協(xié)議對XM2VTS臉部數(shù)據(jù)庫進(jìn)行了測試。發(fā)現(xiàn)所得到的錯(cuò)誤拒絕率和錯(cuò)誤接受率優(yōu)于J.Matas等人于“XM2VTS數(shù)據(jù)庫上的臉部驗(yàn)證結(jié)果比較”(Proceedings of the 15th ICPR,vol 4,pages 858-863,Los Alamitos USA,Sept 2000,IEEE Computer SocPress)一文中所報(bào)道的迄今有關(guān)該數(shù)據(jù)庫的最佳報(bào)道結(jié)果。
現(xiàn)在對本發(fā)明的實(shí)施例和利用這些實(shí)施例獲得的測試結(jié)果加以說明,但這些僅僅作為例示。
臉部圖像表示臉部圖像歸一化或標(biāo)準(zhǔn)化是臉部識(shí)別或驗(yàn)證的重要步驟。臉部圖像彼此在形狀和亮度上均存在差異,所以形狀對齊(幾何歸一化)和亮度校正(光度歸一化)可以提高所設(shè)計(jì)的系統(tǒng)的性能。在本實(shí)施例中,幾何歸一化的方法基于眼睛位置。根據(jù)眼睛的坐標(biāo)計(jì)算四個(gè)參數(shù)(即,旋轉(zhuǎn)度、比例和水平和垂直方向上的轉(zhuǎn)換),以從原始圖像中剪切出臉部部分,并將其縮放到任何期望的分辨率。采用“人工定位的”眼睛坐標(biāo),以消除試驗(yàn)對可能缺乏穩(wěn)健性的方法的依賴性。由此,可以重點(diǎn)研究性能如何受驗(yàn)證方法,即ECOC技術(shù)影響。就光度歸一化而言,已采用了直方圖平均值化,這是因?yàn)榕c其他現(xiàn)有方法(例如“線性鑒別分析及其在臉部識(shí)別中的應(yīng)用”(Ph.D Thesis,universityof Surrey,Sept 2000)一文所述的方法)相比,此方法已顯示較好的性能。
雖然如早先的試驗(yàn)(例如參見F.S.Samaria等人所著的“人臉識(shí)別隨機(jī)模型的參數(shù)化”(Proceedings of the 2nd IEEE Workshop onapplication of computer vision,Sarasota,F(xiàn)lorida,1994.http//mambo.ucsc.edu/psl/olivetti.[HTML.,]and"Fast facelocalisation and verification"by J.Matas et al IVC,17(8)[PAGES578-581,]June 1999))所示,可以直接采用灰度級(jí),但一般首先提取特征。模式識(shí)別文獻(xiàn)中介紹了許多用于提取和選擇可在特征空間中提供最大類區(qū)分的有效特征的技術(shù),如P.A Devijver等人所著的“模式識(shí)別一種統(tǒng)計(jì)方法”(Prentice Hall,1982)中所述。一種流行的方法是線性鑒別分析(LDA),它是本實(shí)施例中采用的方法。下面簡述LDA的原理,以及如何將其應(yīng)用于臉部識(shí)別或驗(yàn)證。更多的細(xì)節(jié)可以參見上面提及的P.A.Devijver等人所著的“特征臉對fisher臉使用特定于類的特殊線性投影的識(shí)別”(Proc.of ECCV′96,pages 45-58,Cambridge,United Kingdom,1996)。
給定一組向量xi,i=1,…,M,xi∈RD,每個(gè)向量均屬于c個(gè)類(C1,C2,…,Ce)之一,類間離散矩陣SB按下式計(jì)算SB=Σi=1c(μi-μ)(μi-μ)T---(1)]]>而類內(nèi)離散矩陣SW按下式計(jì)算SW=Σi=1cΣxk∈Ci(xk-μi)(xk-μi)T---(2)]]>其中μ是總平均值,μi是類Ci的平均值。
LDA的目標(biāo)是要得到使鑒別比 最大的變換矩陣Wopt。已知Wopt是如下特征值問題的解SBW-SWWΛ=0(3)其中Λ是其元素為矩陣SW-1SB的特征值的對角矩陣(參見前述P.A.Devijver等人所著的“模式識(shí)別一種統(tǒng)計(jì)方法”)。矩陣W的列向量wi(i=1,…,c-1)稱為fisher臉,如以上提及的P.N.Belhumeur等人所著的“特征臉對fisher臉使用特定于類的線性投影識(shí)別”中所述。
在高維問題中(例如在xi以及D約為105的情況中),Sw幾乎總是奇異的,因?yàn)橛?xùn)練樣本M數(shù)遠(yuǎn)小于D。因此,在解上述等式(3)所定義的特征值問題之前首先必須作降維處理。通常,降維是通過主成分分析來實(shí)現(xiàn)的(例如,可參見L.Sirovich等人所著的“臉部特征化的低維化過程”(Journal.Opt.Soc.Am,A,3(4)pages519-524,1987)和以上提及的P.N.Belhumeur等人所著的“特征臉對fisher臉利用特定于類的線性投影的識(shí)別”);第一(M-c)特征投影用于表示向量xi。降維還使得可以有效地計(jì)算Sw和SB。于是最優(yōu)線性特征提取器Wopt可定義為Wopt=Wlda*Wpca(4)其中Wpca是PCA投影矩陣,Wlda是通過如下求極大值而獲得的最優(yōu)投影Wlda=argmax|WTWpcaTSWWpcaW||WTWpcaTSBWpcaW|---(5)]]>ECOC驗(yàn)證方法糾錯(cuò)輸出編碼(ECOC)是信息論的概念,它提示采用ECOC碼來表示通過傳輸信道被破壞之后應(yīng)該彼此加以區(qū)分的信號(hào)可能是有利的。T.G.Dietterich等人所著的題為“糾錯(cuò)輸出碼改進(jìn)多類歸納學(xué)習(xí)方法的通用方法”的論文(pages 572-577,Proceedings of TheNinth National Conference On Artificial Intelligence.(AAAI-91),AAAI Pres,1991)建議可以將分類模型化為由“輸入特征”、“訓(xùn)練樣本”和“學(xué)習(xí)范例”構(gòu)成的傳輸信道。類由任何一對之間具有較大漢明距離的碼字來表示。通過既分解多類問題又在決策階段進(jìn)行糾錯(cuò),相信ECOC可提高性能(參見T.G.Dietterich等人所著的“通過糾錯(cuò)輸出碼解決多類學(xué)習(xí)問題”(Journal of ArtificialIntelligence Research,2 pages 263-286,1995)。碼字矩陣中的二進(jìn)制值由碼生成過程確定;有可能選擇可提供有意義的分解的值(例如,參見T.J.Senjnowski等人所著的“學(xué)習(xí)念英語文本的并行網(wǎng)絡(luò)”(Complex systems,1(1)pages 145-168,1987),但通常沒有相關(guān)的意義(參見上述T.G.Dietterich等人所著的“通過糾錯(cuò)輸出碼解決多類學(xué)習(xí)問題”;R.Ghaderi等人所著的“循環(huán)ecoc,理論和試驗(yàn)分析”(pages 203-206,Barcelona,Spain,September2000.International Conference of Pattern Recognition(ICPR2000);T.Windeatt等人所著的“多類決策綜合的二進(jìn)制碼”(volume 4051,pages 23-24,F(xiàn)lorida,USA,April 2000.14th AnnualInternational Conference of Society of Photo- OpticalInstrumentation Engineers(SPIE))和E.B.Kong等人所著的“借助糾錯(cuò)輸出編碼進(jìn)行概率估算”(Banff,Canada,1997.Int.Conf.of Artificial Intelligence and soft computing,http//WWW/CS/0RST.]edu/tgd/cv/pubs.html))。存在幾種可找到一組其中任何一對碼字之間具有最小保證距離的碼字的方法,最流行的是以下文獻(xiàn)中所述的BCH碼T.G.Dietterich等人所著的“通過糾錯(cuò)輸出碼解決多類學(xué)習(xí)問題”和W.W.Peterson等人所著的“糾錯(cuò)碼”(MIT press,Cambridge,MA,1972年),BCH碼為本發(fā)明述及的實(shí)施例所采用。
為了理解ECOC算法,考慮k×b碼字矩陣Z(k是類的數(shù)量),其中k行表示碼字(標(biāo)記),每類一個(gè)。在訓(xùn)練階段,對于每列,根據(jù)二進(jìn)制值(“1”和“0”)對模式重新進(jìn)行標(biāo)記,從而定義兩個(gè)超類。訓(xùn)練二進(jìn)制分類器b次,每列一次?,F(xiàn)在各模式可以由b個(gè)分類器變換到ECOC特征空間,給出向量y=[y1,y2,…,yb]T(6)其中yj是第j個(gè)分類器的實(shí)值輸出。在測試階段,各類的輸出向量與標(biāo)簽之間的距離L按如下公式確定Li=Σj=ib|Zij-yj|---(7)]]>并且將輸入模式分配給與y距離最小的碼字所對應(yīng)的類。
就本發(fā)明所涉及的驗(yàn)證而言,任務(wù)有所不同。此時(shí)希望確定分類器輸出共同與所聲稱的身份相符。這可通過設(shè)置有關(guān)輸出與客戶碼的距離的閾值來實(shí)現(xiàn)。但是,混合碼表示理想化的目標(biāo),而非這些輸出的真實(shí)分布。因此,測量與客戶碼的距離可能存在誤導(dǎo),尤其是在高維空間。
一種替代方法是,采用聯(lián)合分類器輸出的質(zhì)心(centroid)來描述各客戶的特征,并根據(jù)此表示來測量新客戶聲稱的一致性。G.James所著的“多數(shù)票決分類器原理和應(yīng)用”(PhD thesis,Dept.of Statistics,Univ. of Stanford,May 1998.http//www/stat/stanford.edu./Gareth/)中提倡在ECOC分類器場景中采用質(zhì)心。但是,在本例中,因?yàn)橹挥蟹浅I倭康挠?xùn)練圖像,所以估計(jì)的質(zhì)心可能非常不可靠。根據(jù)本發(fā)明,各客戶用從第i個(gè)客戶的訓(xùn)練圖像導(dǎo)出的N個(gè)ECOC分類器輸出向量的相應(yīng)的集合Yi表示,即Yi={y‾i1|1=1,2,...,N---(8)]]>其中N是第i個(gè)客戶的可用訓(xùn)練圖像的數(shù)量。為了測試客戶聲稱是真實(shí)的假設(shè),將(根據(jù)輸入臉部圖像推導(dǎo)出來的)向量y與(根據(jù)第i個(gè)客戶訓(xùn)練圖像類推導(dǎo)出來的)集合Yi的元素之間的平均距離用作測試統(tǒng)計(jì)。在本實(shí)施例中,采用上述等式(3)的一階明可夫斯基量度(Minkowski metric)而非歐幾里德量度來測量距離,以便達(dá)到抗非正常值更好的穩(wěn)健性。這樣估算的距離由下式給出di(y‾)=1NΣi=1NΣj=1b|yji-yj|---(9)]]>其中yj是由輸入臉部圖像推導(dǎo)出的ECOC分類器輸出向量的第j個(gè)元素,而yj1是由第i個(gè)客戶類推導(dǎo)出的ECOC分類器輸出向量的集合Yi的第1個(gè)成員的第j個(gè)元素。對照決策閾值t檢查該距離。如果該距離低于閾值,則接受客戶聲稱,即確認(rèn)輸入臉部圖像相對于第i個(gè)訓(xùn)練圖像類的真實(shí)性;否則拒絕它,即
或者,與測量點(diǎn)之間的距離不同,有可能測量點(diǎn)間的相似度,它可以由距離為零時(shí)取最大值且隨距離增加而單調(diào)遞減的核函數(shù)來表示。決策函數(shù)的設(shè)計(jì)不能包含任何訓(xùn)練,因?yàn)榭捎命c(diǎn)的數(shù)量極小。我們簡單地采用固定寬度為σ的指數(shù)核。不需要明確地確定中心,因?yàn)榫嚯xdi(y)用于核指數(shù)中以測量y與相應(yīng)的類i的相似度。為一定數(shù)量的假冒者類中的每個(gè)假冒者類和客戶類分配一個(gè)核。(由輸入臉部圖像推導(dǎo)出的)測試向量y與所聲稱的客戶類和假冒者類的相應(yīng)的相似度按下式測量ki(y‾)=Σ∝w∝exp{-d∝(y‾)σ2}---(11)]]>其中索引∝超出第i個(gè)類和所有假冒者類,并估計(jì)相應(yīng)的加權(quán)值w∝??蛻袈暦Q測試按下式執(zhí)行 基于XM2VTS數(shù)據(jù)庫的試驗(yàn)上述個(gè)人身份驗(yàn)證的方法已經(jīng)由本發(fā)明人利用XM2VTS臉部數(shù)據(jù)庫進(jìn)行了測試,因?yàn)楸娝苤@是挑戰(zhàn)性的,并且可以容易地從文獻(xiàn)中得到采用其他驗(yàn)證方法按照國際認(rèn)可的協(xié)議進(jìn)行試驗(yàn)而得到的結(jié)果,以便用于比較。
數(shù)據(jù)庫和試驗(yàn)協(xié)議擴(kuò)充后的M2VTS(XM2VTS)數(shù)據(jù)庫包含295個(gè)主題。這些主題是在四個(gè)均勻分布在5個(gè)月周期的獨(dú)立期間中記錄的,各期間拍攝一定數(shù)量的照片,包括正面視圖和旋轉(zhuǎn)序列。在正面視圖序列中,主題閱讀特定的文本(提供同步化的圖像和語音數(shù)據(jù)),而在旋轉(zhuǎn)序列中,使頭部垂直和水平移動(dòng)(提供對頭部3D表面建模有用的信息)。該數(shù)據(jù)庫的更多的細(xì)節(jié)可以參見KL Messer等人所著的“XM2VTSDB擴(kuò)充的M2VTS數(shù)據(jù)庫”(Proc.of AVBPA ′99,pages 72-77,1999)。
試驗(yàn)協(xié)議(稱為Lausanne評估協(xié)議)提供了一種框架,在此框架中可對基于擴(kuò)充的M2VTS數(shù)據(jù)庫運(yùn)行的基于視覺(和基于聲音)的人員認(rèn)證系統(tǒng)的性能加以測量。該協(xié)議分配了200個(gè)客戶和95個(gè)假冒者。選擇各期間對各主題的正面圖像或近正面圖像(near frontalimage)的兩個(gè)照片,以構(gòu)成兩個(gè)配置。在此評估中,采用了第一個(gè)配置。如上述J Matas等人所著的“基于xm2vts數(shù)據(jù)庫的臉部驗(yàn)證結(jié)果比較”中的報(bào)告結(jié)果所示,此方式更為困難。在此配置中,每個(gè)客戶對應(yīng)3個(gè)訓(xùn)練圖像、3個(gè)評估圖像和2個(gè)測試圖像。假冒者集合被劃分為25個(gè)評估假冒者和70個(gè)測試假冒者。在該協(xié)議中,利用錯(cuò)誤接受率和錯(cuò)誤拒絕率來測定驗(yàn)證性能。這兩個(gè)出錯(cuò)率彼此相等的工作點(diǎn)稱為等出錯(cuò)率點(diǎn)。此協(xié)議的細(xì)節(jié)可參見J.Luettin等人所著的“擴(kuò)充的M2VTS數(shù)據(jù)庫(XM2VTS)的評估協(xié)議”(Dalle Molle Institute forPerceptual Artificial Intelligence,P.O.Box 592 Martigny,Valais,Switzerland,July 1998,IDIAP-Com 98-05)。
系統(tǒng)說明在本發(fā)明的本實(shí)施例中,利用前述LDA將所有圖像投影到較低維的特征空間,以便通過含199個(gè)元素的向量來表示各模式。有200個(gè)客戶,所以從識(shí)別的觀點(diǎn)來看,這提出了一個(gè)200類的問題。采用含200個(gè)碼字(混合標(biāo)記)511個(gè)比特的BCH等距碼。任何一對標(biāo)簽之間的碼距離為256個(gè)比特。碼選擇和等距碼的優(yōu)點(diǎn)在上述T.Windeatt等人所著的“用于多類決策綜合的二進(jìn)制碼”中作了討論。
對于驗(yàn)證任務(wù),零級(jí)分類器是具有一個(gè)隱藏層的“多層感知器”(MLP),它包含199個(gè)輸入節(jié)點(diǎn)、35個(gè)隱藏節(jié)點(diǎn)和2個(gè)輸出節(jié)點(diǎn)。對于訓(xùn)練,將具有固定學(xué)習(xí)率、動(dòng)量和歷元(epoch)數(shù)量的后向傳播(Back-propagation)算法用于訓(xùn)練。雙輸出映射到“0”和“1”之間的值,以給出超類成員關(guān)系的概率估計(jì)值。對于標(biāo)識(shí)任務(wù),采用具有三個(gè)隱藏節(jié)點(diǎn)的MLP。
如前所述,MLP的輸出定義ECOC特征向量,并根據(jù)公式(9),通過對各類圖像求平均值來計(jì)算所聲稱的身份i的di(y)。已對用于綜合ECOC多個(gè)分類器的輸出的基于規(guī)則的距離和相似度作了研究。在兩個(gè)決策函數(shù)中,基于規(guī)則的距離是唯一一個(gè)必須選擇的依賴于參數(shù)(即決策閾值)的決策函數(shù)。
基于距離的綜合通常會(huì)采用評估集合數(shù)據(jù)來計(jì)算“接收器工作特性(ROC)曲線,它將錯(cuò)誤拒絕(FR)率和錯(cuò)誤接受(FA)率的關(guān)系描繪成閾值的函數(shù)。然后選擇合適的閾值以取得所需的特性;例如,可以指定得到相等的錯(cuò)誤拒絕率和錯(cuò)誤接受率的閾值??梢詥为?dú)為各客戶選擇閾值,也可以通過對所有客戶求平均誤差而以全局方式選擇閾值。
本發(fā)明基于ECOC的方法可能遇到的困難是,對于較大范圍的閾值,基于評估集合的FR和FA誤差均為零,因?yàn)榱慵?jí)分類器“太過強(qiáng)大”。在這類情況中,ROC曲線對閾值設(shè)定并非很有用。此問題可通過如下方法來加以克服。從t=0開始,閾值按固定步長連續(xù)遞增,以找出總誤差(FR和FA誤差之和)為最小的點(diǎn)。如果這樣遞增幾次,總誤差為零,則所選的閾值將對應(yīng)總誤差剛開始上升之前的點(diǎn)。
表1給出利用評估集合數(shù)據(jù)通過上述閾值選擇過程得到的結(jié)果,該結(jié)果是步長的函數(shù)。因?yàn)椴煌牟介L使閾值選擇過程終止于距評估集合中假冒者不同的目的地,故測試集合的性能也有所不同。表2顯示將來自評估(Ev)和測試(Ts)集合的種子(seed)均用于設(shè)定閾值時(shí)所得到的出錯(cuò)率。即使已經(jīng)改進(jìn)了泛化過程(generalisation),還是不明白根據(jù)評估集合的性能如何選擇最佳步長。
表1當(dāng)評估集合中的客戶被用作種子時(shí)的驗(yàn)證結(jié)果一種可能是對從所有步長得到的結(jié)果加以綜合,表2最后一行顯示這種多數(shù)票決綜合的結(jié)果。
表2當(dāng)評估和訓(xùn)練集合中的客戶被用作種子時(shí)的驗(yàn)證結(jié)果為了演示ECOC的有效性,表3中顯示了將窮舉搜索法直接應(yīng)用于原始199維特征向量所得的結(jié)果。比較表2和表3,將輸入的數(shù)據(jù)映射到ECOC輸出向量上的好處是顯而易見的。還要注意,在本例中,評估集合的出錯(cuò)率是非零的,即,客戶和假冒者的群體是有重疊的。在此特定情況中,可能原來計(jì)算ROC曲線,但后來未繼續(xù),因?yàn)樗黠@不如基于ECOC的方法。
表3fisher臉特征空間中的驗(yàn)證結(jié)果核綜合雖然核綜合方法不需要閾值,但存在可以加以改變以控制該方法的特性的設(shè)計(jì)參數(shù)。具體地說,可以選擇不同方式來表示假冒者。25個(gè)評估假冒者的每一個(gè)具有4個(gè)2圖像組,如上所述。因此,作為基于4組求平均值的25個(gè)中心的替代方案,我們可以選擇基于2組求平均值的50個(gè)中心或基于1組求平均值的100個(gè)中心。表4顯示了25、50、100個(gè)假冒者中心的出錯(cuò)率以及多數(shù)票決綜合的結(jié)果。與表2相比較,錯(cuò)誤接受率和錯(cuò)誤拒絕率之間存在不同的折衷。
表4使用不同數(shù)量的假冒者中心并采用核心得分的驗(yàn)證結(jié)果與其他方法的比較為了進(jìn)行比較,給出了對相同數(shù)據(jù)集合采用三種不同方法以及采用相同評估協(xié)議所得到的結(jié)果。這些方法采用基于199個(gè)fisher臉系數(shù)的相同圖像數(shù)據(jù)表示。它們在此特征空間將三種不同的得分用于此特征空間中的決策。具體來說,采用歐幾里德量度SE、正態(tài)相關(guān)性SN以及梯度量度So,如J.Kittler等人所著“基于Ida的臉部驗(yàn)證的匹配得分”。表5匯總了所得結(jié)果。
表5基于手工登記的圖像的三種基線匹配得分的性能結(jié)果顯示多個(gè)有趣的特征。首先,通過將歐幾里德量度的性能與表3中所建議的距離di(y)作比較,顯然在di(y)中采用更穩(wěn)健的量度并結(jié)合客戶的多種子表示(multi-seed representation)比基于歐幾里德距離的得分更有效。最重要的是,所有基于ECOC的結(jié)果確實(shí)優(yōu)于原始fisher臉空間中的決策。最后,ECOC多分類器輸出通過上述公式12給出的相對相似度得分進(jìn)行綜合,看來似乎可獲得比采用基于距離的得分di(y)稍好的結(jié)果。此發(fā)現(xiàn)和別處報(bào)道的工作成果意味著,決策函數(shù)的選擇(得分)函數(shù)在驗(yàn)證系統(tǒng)的設(shè)計(jì)中起著極其重要的作用,將來應(yīng)該予以更多關(guān)注。
總之,所述實(shí)施例的臉部驗(yàn)證和識(shí)別方法和系統(tǒng)基于糾錯(cuò)輸出編碼(ECOC)分類器設(shè)計(jì)方法。在訓(xùn)練階段,重復(fù)將客戶集合劃分為兩個(gè)ECOC指定子集(超類),以訓(xùn)練一組二進(jìn)制分類器。分類器的輸出定義ECOC特征空間,其中容易分離表示客戶和假冒者的變換模式。作為一種ECOC特征空間中的匹配得分,已開發(fā)出了創(chuàng)新的基于距離的測量方法和創(chuàng)新的基于核的相似度測量方法。基于距離的得分計(jì)算輸入臉部圖像與訓(xùn)練圖像類之間的平均一階明可夫斯基距離,已發(fā)現(xiàn)這種距離比歐幾里德量度更有效。已證明,所述方法和系統(tǒng)表現(xiàn)出比以前所報(bào)道的結(jié)果優(yōu)越的基于眾所周知的XM2VTS數(shù)據(jù)集合的驗(yàn)證性能。從前述應(yīng)理解,聲稱屬于已知個(gè)人(一個(gè)客戶)的輸入臉部數(shù)據(jù)可以參照表示該個(gè)人的不同訓(xùn)練圖像類來加以認(rèn)證或驗(yàn)證(利用上述基于距離的測量方法)?;蛘撸撦斎肽槻繄D像可以參照表示另一個(gè)人(假冒者)的表示不同個(gè)人(假冒者)的其他訓(xùn)練圖像類以及表示客戶的訓(xùn)練圖像類來加以認(rèn)證或驗(yàn)證(利用上述基于核的相似度方法)。
輸入臉部圖像可以表示身份未知的個(gè)人。在此情況下,可以將不同的訓(xùn)練圖像類中的任何一類用作客戶類,采用基于距離的測量方法或基于核的相似度方法來對輸入臉部圖像進(jìn)行認(rèn)證(從而識(shí)別個(gè)人)。
權(quán)利要求
1.一種個(gè)人身份驗(yàn)證方法,用于對照表示個(gè)人臉部的不同訓(xùn)練圖像類來評估輸入臉部圖像的真實(shí)性,所述方法包括處理表示所述輸入臉部圖像的圖像數(shù)據(jù),以生成第一糾錯(cuò)輸出碼(ECOC)分類器輸出向量;處理表示所述不同訓(xùn)練圖像類的圖像數(shù)據(jù),以生成第二ECOC分類器輸出向量集;將所述第一ECOC分類器輸出向量與所述第二ECOC分類器輸出向量集進(jìn)行比較;以及根據(jù)比較結(jié)果評估所述輸入臉部圖像相對于所述訓(xùn)練圖像類的真實(shí)性。
2.如權(quán)利要求1所述的方法,其特征在于所述比較步驟包括測量所述第一分類器輸出向量與所述第二ECOC分類器輸出向量集之間的距離。
3.如權(quán)利要求1所述的方法,其特征在于它包括利用一階明可夫斯基量度來測量所述距離。
4.如權(quán)利要求3所述的方法,其特征在于所述距離d(y)由如下公式給出di(y‾)=1NΣl=1NΣj=1b|yj1-yj|]]>其中yj是所述第一ECOC分類器輸出向量的第j個(gè)元素,yj1是所述第二ECOC分類器輸出向量集的第1個(gè)成員的第j個(gè)元素;以及N是所述集合的成員數(shù)量;以及如果所述距離d(y)≤t,t是預(yù)定閾值,則將所述輸入臉部圖像評估為真實(shí)的。
5.如權(quán)利要求1所述的方法,其特征在于處理表示多個(gè)所述不同訓(xùn)練圖像類的圖像數(shù)據(jù),以生成相應(yīng)于各類的所述第二ECOC分類器輸出向量集,各所述訓(xùn)練圖像類表示不同個(gè)人的臉部;測量所述第一ECOC分類器向量集與各所述第二ECOC分類器輸出向量集之間的距離;以及綜合所測得的距離,以評估所述輸入臉部圖像相對于所述訓(xùn)練圖像類之一的真實(shí)性。
6.如權(quán)利要求5所述的方法,其特征在于所述綜合是對指數(shù)核函數(shù)求和,各核函數(shù)具有與不同的各所述距離相關(guān)的指數(shù)。
7.如權(quán)利要求6所述的方法,其特征在于所述綜合按下式給出k(y‾)=Σ∝w∝exp{-d∝(y‾)σ2}]]>其中∝是類索引;d∝(y)是所述第一ECOC分類器向量與相應(yīng)的第二ECOC分類器輸出向量集之間的測量距離;以及w∝是相應(yīng)的預(yù)定加權(quán)函數(shù);以及如果k(y)≥t1,t1是預(yù)定閾值,則將所述輸入臉部圖像評估為真實(shí)的。
8.如權(quán)利要求4所述的方法,其特征在于這樣選擇所述閾值t,使FA+FR相對于閾值t基本為最小,其中FA是錯(cuò)誤接受率,F(xiàn)R是錯(cuò)誤拒絕率。
9.如權(quán)利要求1至8所述的方法,其特征在于所述處理圖像數(shù)據(jù)的步驟包括將圖像數(shù)據(jù)投影到較低維的空間并根據(jù)如此投影的圖像數(shù)據(jù)生成所述第一和第二(ECOC)分類器輸出向量。
10.如權(quán)利要求9所述的方法,其特征在于所述投影圖像數(shù)據(jù)的步驟還包括線性鑒別分析。
11.如權(quán)利要求10所述的方法,其特征在于所述投影圖像數(shù)據(jù)的步驟還包括主成分分析。
12.如權(quán)利要求1所述的方法,其特征在于處理表示多個(gè)所述不同訓(xùn)練圖像類的圖像數(shù)據(jù),以生成相應(yīng)于各類的所述第二ECOC分類器輸出向量集,各所述訓(xùn)練圖像類表示不同個(gè)人的臉部;將所述第一ECOC分類器輸出向量與各所述第二ECOC分類器輸出向量集進(jìn)行比較;以及根據(jù)比較結(jié)果評估所述輸入臉部圖像相對于各所述訓(xùn)練圖像類的真實(shí)性。
13.一種個(gè)人身份驗(yàn)證系統(tǒng),它包括用于存儲(chǔ)表示輸入臉部圖像和一個(gè)或多個(gè)不同訓(xùn)練圖像類的圖像數(shù)據(jù)的裝置以及用于根據(jù)權(quán)利要求1至12中任意一項(xiàng)所述的方法來處理所述存儲(chǔ)的圖像數(shù)據(jù)的處理裝置。
14.一種如權(quán)利要求1所述的個(gè)人身份驗(yàn)證方法,其特征在于,基本上如本文中所述。
全文摘要
一種個(gè)人身份驗(yàn)證方法和系統(tǒng)采用糾錯(cuò)輸出編碼(ECOC)分類器方法。處理表示輸入臉部圖像的圖像數(shù)據(jù)以生成第一(ECOC)分類器輸出向量,處理表示個(gè)人臉部的不同訓(xùn)練圖像類的圖像數(shù)據(jù)以生成第二ECOC分類器輸出向量集。通過利用一階明可夫斯基量度測量第一ECOC分類器輸出向量與第二ECOC分類器輸出向量集的距離來評估輸入臉部圖像相對于訓(xùn)練圖像類的真實(shí)性。
文檔編號(hào)G06K9/00GK1543625SQ02814945
公開日2004年11月3日 申請日期2002年5月30日 優(yōu)先權(quán)日2001年5月31日
發(fā)明者J·基特勒, T·溫迪特, J 基特勒, 咸 申請人:全感知有限公司