專利名稱:一種利用位置圖像塊重建的人臉圖像超分辨率方法
技術(shù)領(lǐng)域:
本發(fā)明涉及一種圖像處理方法,具體涉及一種利用位置圖像塊重建的人臉圖 像超分辨率方法。
背景技術(shù):
超分辨率是指由一幀或者多幀低分辨率圖像重建出一幀或者多幀高分辨率圖 像。適用于各種圖像的超分辨率重建算法沒有針對(duì)于某一類圖像設(shè)計(jì)的算法重建 效果好。
2000年美國(guó)卡耐基一梅隆大學(xué)Baker (文獻(xiàn)1: S. Baker, T. Kanade, Hallucinating Faces, in: Proc. of Inter. Conf. on Automatic Face and Gesture Recognition, Grenoble, France, 2000, pp. 83-88.)首先開發(fā)出基于機(jī)器學(xué)習(xí) 的單幀人臉圖像超分辨率算法(Face hallucination),選擇人臉圖像高斯金字塔 的水平與垂直方向的導(dǎo)數(shù)以及拉普拉斯金字塔,作為人臉圖像的特征空間。通過 離線學(xué)習(xí)得到映射,該映射反映了原圖在不同分辨率下的圖像灰度對(duì)應(yīng)關(guān)系,以 此作為基于識(shí)別的先驗(yàn)信息,但得到的高分辨率人臉圖像在有些部位仍存在較大 的噪聲。2001年Liu (文獻(xiàn)2: C.Liu, H. Shum, andC. Zhang, A Two—St印Approach to Hallucinating Faces: Global Parametric Model and Local Nonparametric Model, in Proc. Of CRPR, Vol. 1, pp. 192-198, 2001)開發(fā)了一個(gè)兩步算法, 首先在高斯假設(shè)下利用全局參數(shù)模型得到初步的高分辨率人臉,然后在馬爾科夫 場(chǎng)假設(shè)下利用局部非參數(shù)模型得到殘差圖像,最后將二者相加得到最終結(jié)果。 Baker和Liu的方法不僅使用了復(fù)雜的概率模型而使得運(yùn)算量變大,同時(shí)最終結(jié)果 的獲取需要下采樣函數(shù),而下采樣函數(shù)在實(shí)際中是很難得到的。2004年Chang (文獻(xiàn)3- Hong Chang, et al. Super-resolution through neighbor embedding. //Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, Washington, 2004. United States: Institute of Electrical and Electronics Engineers Computer Society, 2004: 1275-1282) 首先將流形學(xué)習(xí)Locally Linear Embedding (LLE)算法中鄰域思想引入超分辨率 重建,提出鄰域嵌入(Neighbor Embedding)算法,按照LLE求取數(shù)據(jù)鄰域點(diǎn)的 方法,選取低分辨率訓(xùn)練集中鄰域塊重構(gòu)輸入的低分辨率圖像,并假設(shè)高低分辨 率圖像具有相似的流形結(jié)構(gòu),將低分辨率空間下的權(quán)值運(yùn)用于高分辨率空間,重 構(gòu)出高分辨率圖像。后來的學(xué)者,在使用圖像塊的方法進(jìn)行單幅人臉的超分辨率 重建時(shí),幾乎都使用了鄰域圖像塊,也就是幾乎都在鄰域嵌入算法基礎(chǔ)上,要么 不再假設(shè)高低分辨率圖像具有相似的流形結(jié)構(gòu),而采用迭代的方式得到高分辨率 下的重構(gòu)權(quán)值(文獻(xiàn)4: Sung Won Park, Savvides M. Robust. Super-Resolution of Face Images by Iterative Compensating Neighborhood Relationships. //Biometrics Symposium, 2007. United States: Digital Object Identifier, 2008:1 — 5),要么對(duì)鄰域嵌入算法得到的結(jié)果再進(jìn)行補(bǔ)償(文獻(xiàn)5: Wei Liu, Dahua Lin, Xiaoou Tang. Neighbor combination and transformation for hallucinating faces.// IEEE Irvternational Conference on Multimedia and Expo, Netherlands, 2005. United States: Institute of Electrical and Electronics Engineers Computer Society, 2005: 478-484)等等。2005年wang (文獻(xiàn)6: Xiaogang Wang, et al. Hallucinating Face by Eigentransformation. IEEE Transactions on Systems Man and Cybernetics, 2005, 35(3) :425 - 434) 對(duì)一系列低分辨率圖像和對(duì)應(yīng)高分辨率圖像進(jìn)行主成分分析獲得人臉形狀和紋理 模型求得待重建圖像對(duì)應(yīng)的模型系數(shù),從而利用這些系數(shù)及模型重建人臉圖像.由 于獲得的權(quán)值是針對(duì)整體圖像的,重建精度稍差,僅僅是人臉感興趣區(qū)域圖像重構(gòu)質(zhì)量較高,其余區(qū)域比較模糊,而且對(duì)圖像先進(jìn)行主成分分析,就損失了非特
征信息,而這些非特征信息對(duì)超分辨率重建來說也是有用的。2007年Zhuang (文 獻(xiàn)7: Yueting Zhuang , et al. Hallucinating faces: LPH super- resolution and neighbor reconstruction for residue compensation . Pattern Recognition: 2007, 40: 3178-3194)先利用Locality Preserving Projection(LPP)提取整體 特征,再經(jīng)過徑向基函數(shù)得到的初步高分辨率圖像,最后進(jìn)行圖像±央鄰域殘差獲 得最后的結(jié)果。Zhuang的方法在第一步引入了 LPP,這樣就損失了一部分非特征 信息,而這些特征信息對(duì)圖像的細(xì)節(jié)恢復(fù)是有貢獻(xiàn)的,從而第一步的高分辨率圖 像效果欠佳補(bǔ)償,最后使用鄰域嵌入算法進(jìn)行殘差補(bǔ)償,最后獲得的高分辨率圖 像效果依賴于第二步的殘差補(bǔ)償,而且計(jì)算量比較大。
發(fā)明內(nèi)容
本發(fā)明目的在于提供一個(gè)利用位置圖像塊重建的人臉圖像超分辨率方法,本 發(fā)明的方法解決現(xiàn)有同類算法運(yùn)算量大,獲得的高分辨率人臉圖像質(zhì)量不夠理想 的問題。
為達(dá)到上述目的,本發(fā)明采用的技術(shù)方案是
1) 將輸入的低分辨率人臉圖像、高低分辨率訓(xùn)練集人臉圖像分別戈吩為相互 重疊的圖像塊;
2) 對(duì)于輸入的低分辨率人臉圖像中每個(gè)低分辨率圖像塊,計(jì)算出由低分辨率 訓(xùn)練集每個(gè)樣本圖像位置i央進(jìn)行線性重建的最優(yōu)權(quán)值;
3) 將低分辨率訓(xùn)練集樣本圖像位置塊,替換為一一對(duì)應(yīng)的高分辨率訓(xùn)練集樣 本圖像位置塊,使用步驟2)求出的權(quán)值,加權(quán)合成高分辨率圖像塊;
4) 將合成的高分辨率圖像塊按照其在人臉圖像的位置,拼接為整體圖像。 本發(fā)明的相互重疊的圖像i央劃分步驟如下
將輸入的低分辨率人臉圖像A、高低分辨率訓(xùn)練集中第m個(gè)人臉圖像&、 &表示為相互重疊的圖像塊矩陣形式,分別為^/"/)d、 {&,/,力}二、 f/^"'》二,其中W為所劃分的圖像方塊的個(gè)數(shù),m最大值為M, M為訓(xùn)練集高 低分辨率圖像對(duì)的個(gè)數(shù),XW,力表示圖像塊矩陣中位于第f行y列處的圖像塊, (^')體現(xiàn)了所劃分的圖像塊在人臉的位置特征,設(shè)每個(gè)圖像塊大小為"x",每個(gè)
圖像塊的四個(gè)相鄰圖像i央表示為J^(M,力,r^ + ij),f (z',y+i),f(/,卜i),"為正
整數(shù),當(dāng)w為奇數(shù)時(shí),每個(gè)圖像塊X/(/,力與其相鄰圖像塊的重疊區(qū)域大小為 ("-1)/2,則其對(duì)應(yīng)的高分辨率圖像塊X/(/,力大小為《"^",與其相鄰圖像塊的重 疊區(qū)域大小為[《("-l)/2]x[《("-l)/2];當(dāng)n為偶數(shù)時(shí),重疊區(qū)域大小為"/2,則其對(duì) 應(yīng)的高分辨率圖像塊大小為^x《",重疊區(qū)域大小為/2]x /2],《為抽取率或 放大倍數(shù)。
本發(fā)明所述位置塊是指對(duì)于輸入的低分辨率人臉圖像中每個(gè)低分辨率圖像
塊xf(/,力,訓(xùn)練集中每個(gè)樣本圖像在(/j)位置的圖像塊d/,力、1T(/J),或者
與(/,力位置相鄰的8鄰域圖像塊都稱為《(/J)的位置塊。
本發(fā)明由低分辨率訓(xùn)練集每個(gè)樣本圖像位置塊線性重建輸入的低分辨率圖像 塊的最優(yōu)權(quán)值計(jì)算方法如下
最優(yōu)權(quán)值計(jì)算公式為《,力=7|^ ,其中Z = (Z-Y)、X-Y)、
C A L
7 =義/(/,力.^, C是單位列向量,Y是一個(gè)MxD維的矩陣,其每一列由d/,y) 組成,Z)為f (,'J)的維數(shù),—',力為每個(gè)i(W)組合成的M維權(quán)值向量,在實(shí)際 的計(jì)算中常采用一個(gè)更決捷的方法,即求線性系統(tǒng)方程Z.—'J卜C 。 本發(fā)明所述加權(quán)合成高分辨率圖像塊方法如下
求出輸入的低分辨率圖像塊X/(W)對(duì)應(yīng)的高分辨率圖像塊^/(/,力計(jì)算公式 本發(fā)明為針對(duì)人臉圖像的超分辨率算法,即由一張輸入的低分辨率人臉圖像,重建出高分辨率的人臉圖像,避免了同類算法搜索步驟,而直接利用訓(xùn)練集每個(gè) 樣本圖像同一位置的圖像塊來重建同一位置高分辨率圖像塊,從而大大節(jié)省運(yùn)算 時(shí)間和復(fù)雜程度;避免了同類算法中常見的流形學(xué)習(xí)或特征提取步驟,進(jìn)一步節(jié) 省了運(yùn)算時(shí)間并降低了復(fù)雜程度,而且提升了所合成的高分辨率圖像的質(zhì)量。
圖l為本發(fā)明的流程圖。
圖2為重疊圖像塊的劃分方法。
圖3為本發(fā)明與鄰域嵌入方法(Neighbor Embedding文獻(xiàn)[3])的結(jié)果對(duì)比, 其中K為鄰域嵌入方法中鄰域i央個(gè)數(shù);其中(a)輸入的低分辨率圖像(32X24); (b) K二50時(shí)利用鄰域嵌入算法結(jié)果(128X96); (c) K二150時(shí)利用鄰域嵌入算法 結(jié)果(128X96); (d)I^400時(shí)利用鄰域嵌入算法結(jié)果(128X96); (e)本發(fā)明結(jié) 果(128X96); (f)真實(shí)圖像(128X96);
圖4為本發(fā)明與文獻(xiàn)6、8方法的結(jié)果對(duì)比;(a)輸入的低分辨率圖像(32X24); (b)傳統(tǒng)插值超分結(jié)果(128X96); (c)文獻(xiàn)6算法結(jié)果(128X96); (d)文獻(xiàn)8 算法結(jié)果(128X96); (e)本發(fā)明結(jié)果(128X96); (f)真實(shí)圖像(128X96)。
具體實(shí)施例方式
下面結(jié)合附圖對(duì)本發(fā)明作進(jìn)一步詳細(xì)說明。 參見圖l,下面給出該發(fā)明技術(shù)方案具體步驟
步驟一將輸入的低分辨率圖像A、高低分辨率訓(xùn)練集中第m個(gè)圖像&、 11
表示為相互重疊的圖像塊矩陣形式,分別為w/(/,力^、 f,(u'》;、
《V^,/C。其中W為所劃分的圖像方塊的個(gè)數(shù),附最大為M, M為訓(xùn)練集高低 分辨率圖像對(duì)的個(gè)數(shù)、y(W)表示圖像i央矩陣中位于第i行/列處的圖像塊。(! ,/)
體現(xiàn)了所劃分的圖像塊在人臉的位置特征,設(shè)每個(gè)圖像塊大小為"x",每個(gè)圖像
塊的四個(gè)相鄰圖像塊表示為;r(!'-i,/),;r(!'+i,力,jray+i),x尸(/,/-1),"為正整數(shù),圖像塊劃分與表示見附圖2。對(duì)低分辨率圖像訓(xùn)練集^ ,當(dāng)"為奇數(shù)時(shí),每個(gè)
圖像塊;C("')與其相鄰圖像塊的重疊區(qū)域大小為("-i)/2,則其對(duì)應(yīng)的高分辨率
圖像塊Z/(i,力大小為《"x《",與其相鄰圖像塊的重疊區(qū)域大小為 [^z-l)/2]x[一-l)/2];當(dāng)n為偶數(shù)時(shí),重疊區(qū)域大小為n/2,則其對(duì)應(yīng)的高分辨率 圖像i央大小為g"x^,重疊區(qū)域大小為[《"/2]x[《"/2], g為抽取率或放大倍數(shù)。對(duì) 不同圖像義,當(dāng)/,_/各自分別取最大值時(shí),圖像塊位于圖像邊界位置,其大小有 可能小于其它圖像i央,對(duì)于這些邊界圖像塊,處理方法是一樣的。
(/,y)體現(xiàn)了所劃分的圖像塊在人臉的位置特征,(/,_/)相同的圖像塊稱為該位 置的位置塊。所述位置塊是指對(duì)于輸入的低分辨率人臉圖像中每個(gè)低分辨率圖 像塊《(/,7'),訓(xùn)練集中每個(gè)樣本圖像在(/,力位置的圖像塊lT(/,_/)、 jT(u'),或 者與(w)位置相鄰的8鄰域圖像塊都稱為《(/,./)的位置塊。
步驟二對(duì)待操作的低分辨率圖像《X/(/,/》^的每個(gè)圖像塊Z/(/,/)均進(jìn)行以 下操作(圖像及圖像塊均采用向量形式表達(dá))
操作l.計(jì)算最優(yōu)權(quán)值氣(zW),使得以下兩式成立
《(U') = i>m(Z,/).}T(/,)) (1)
!>m (") = 1 (2)
其中最優(yōu)權(quán)值的計(jì)算方法
為求出 (/,/),結(jié)合式(1),我們建立如下式 0 = argmin X f (/,7)-f;氣(,',力rm尸(,.,乃
令Z^JT-Yf(X-Y),其中Z-JT (/,_;■).C、C是單位列向量,Y是一個(gè)MxZ) 維的矩陣,其每一列由dD)組成,D為&,i,))的維數(shù)。w(U)為每個(gè)w^W)組 合成的M維權(quán)值向量,使用拉格朗日乘子法得到
9在實(shí)際的計(jì)算中常采用一個(gè)更快捷的方法,即求線性系統(tǒng)方程Z.一,/)-C 。
操作2.使用最優(yōu)權(quán)值氣(w),利用下式求出x/a力對(duì)應(yīng)的高分辨率圖像土央
步驟三將上一步驟得到的N個(gè)高分辨率圖像塊X/(Z,力,按照其在圖像矩陣
中的位置進(jìn)行拼接。相鄰圖像塊所重疊部分像素值的求取,采用取均值方法即可。 一般低分辨率位置圖像塊大小取3X3,相鄰圖像塊重合1個(gè)像素。
本發(fā)明可應(yīng)用于諸多領(lǐng)域,例如
(1) 銀行、交通、小區(qū)、海關(guān)、機(jī)場(chǎng)的視頻監(jiān)控。
(2) 視頻會(huì)議。
(3) 公安刑偵,用來提高事發(fā)現(xiàn)場(chǎng)所拍攝的犯罪嫌疑人的圖片質(zhì)量。
(4) 手機(jī)圖像傳輸。
(5) 證件識(shí)別,如身份證、駕駛證、護(hù)照等證件上的人臉復(fù)原。 本發(fā)明之所以能解決同類算法運(yùn)算量大,獲得的高分辨率人臉圖像質(zhì)量不夠
理想的問題的原因在于
1、 避免了同類算法搜索步驟,即避免在訓(xùn)練集內(nèi)搜索滿足某一法則的圖像塊 來,而直接利用訓(xùn)練集每個(gè)樣本圖像同一位置的圖像塊來重建同一位置高分辨率 圖像塊,從而大大節(jié)省運(yùn)算時(shí)間和復(fù)雜程度;
2、 避免了引入流形學(xué)習(xí)或者特征提取步驟(如PCA、 LLE或LPP等),進(jìn)一步 節(jié)省了運(yùn)算時(shí)間和復(fù)雜程度而且提升了所合成的高分辨率圖像的質(zhì)量。同類算法
為了得到高低分辨率人臉圖像之間的關(guān)系,常常引入流形學(xué)習(xí)或者特征提取步驟, 這樣得到的模型參數(shù)不包含非特征信息,而非特征信息對(duì)人臉對(duì)圖像的細(xì)節(jié)恢復(fù)是有貢獻(xiàn)的。同類算法由于弓l入流形學(xué)習(xí)或者特征提取步驟,導(dǎo)致得到的高分辨 率圖像質(zhì)量不夠理想,常常需要第二步的殘差補(bǔ)償來進(jìn)一步提升圖像質(zhì)量,但即 使這樣效果仍然不如本發(fā)明。 以下為實(shí)驗(yàn)對(duì)比。
采用了CAS-PEAL-Rl大規(guī)模人臉數(shù)據(jù)庫(kù)(文獻(xiàn)8: Wen Gao, et al. The CAS-PEAL Large-Scale Chinese Face Database and Baseline Evaluations. IEEE Transactions on System Man, and Cybernetics (Part A), 2008, (38) : 149-161), 隨機(jī)選用了200個(gè)不同個(gè)體在同一光照條件下(面部受光均勻,不存在"陰陽(yáng)臉" 情況),平常表情正面人臉圖像,手工標(biāo)定并對(duì)齊了兩眼中心,嘴巴中心三個(gè)特征 點(diǎn),根據(jù)需要截取人臉區(qū)域,并將圖片大小統(tǒng)一到128X96大小。將所有樣本圖像 采用平均下采樣方法降低分辨率得到32 X 24大小的低分辨率圖像。
禾l)用本發(fā)明得到的高分辨率圖像與有代表行性的文獻(xiàn)[3]、 [6]、 [8]中算法得 到的高分辨率圖像進(jìn)行圖像質(zhì)量、運(yùn)算時(shí)間的對(duì)比,分別見圖3、圖4。 表1為本發(fā)明與文獻(xiàn)[3]、 [6]、 [8]方法的計(jì)算時(shí)間對(duì)比。
鄰域嵌入文獻(xiàn)[S] 本發(fā)明
所用時(shí)間約250秒約800秒 約80秒
表l.在3. OG CPU的計(jì)算機(jī)上,使用同樣訓(xùn)練集,加上生成訓(xùn)練集的時(shí)間, 不同算法生成一幀高分辨率圖像所用時(shí)間對(duì)比
權(quán)利要求
1、一種利用位置圖像塊重建的人臉圖像超分辨率方法,其特征在于包括如下步驟1)將輸入的低分辨率人臉圖像、高低分辨率訓(xùn)練集人臉圖像分別劃分為相互重疊的圖像塊;2)對(duì)于輸入的低分辨率人臉圖像中每個(gè)低分辨率圖像塊,計(jì)算出由低分辨率訓(xùn)練集每個(gè)樣本圖像位置塊進(jìn)行線性重建的最優(yōu)權(quán)值;3)將低分辨率訓(xùn)練集樣本圖像位置塊,替換為一一對(duì)應(yīng)的高分辨率訓(xùn)練集樣本圖像位置塊,使用步驟2)求出的權(quán)值,加權(quán)合成高分辨率圖像塊;4)將合成的高分辨率圖像塊按照其在人臉圖像的位置,拼接為整體圖像。
2、 根據(jù)權(quán)利要求1所述的一種利用位置圖像塊重建的人臉圖像超分辨率方法, 其特征在于所說的相互重疊的圖像±央劃分步驟如下將輸入的低分辨率人臉圖像^、高低分辨率訓(xùn)練集中第m個(gè)人臉圖像&、 & 表示為相互重疊的圖像塊矩陣形式,分別為{X/ G, 7')}二i 、化,(/, 、 (V"、z'JKL,,其中W為所劃分的圖像方塊的個(gè)數(shù),m最大值為M, M為訓(xùn)練集高低分辨率圖像對(duì)的個(gè)數(shù),f a/)表示圖像i央矩陣中位于第d亍j'列處的圖像塊,(/J)體現(xiàn)了所劃分的圖像塊在人臉的位置特征,設(shè)每個(gè)圖像塊大小為"x",每個(gè)圖像塊的四個(gè)相鄰圖像i央表示為1),"為正整數(shù),當(dāng)w為奇數(shù)時(shí),每個(gè)圖像塊Z/(/,刀與其相鄰圖像塊的重疊區(qū)域大小為 ("-1)/2,則其對(duì)應(yīng)的高分辨率圖像塊X/a力大小為WM",與其相鄰圖像塊的重 疊區(qū)域大小為[《("-l)/2]x[《("-l)/2];當(dāng)n為偶數(shù)時(shí),重疊區(qū)域大小為"/2,則其對(duì) 應(yīng)的高分辨率圖像塊大小為《"x《",重疊區(qū)域大小為[9"/2]x[^/2],《為抽取率或 放大倍數(shù)。
3、 根據(jù)權(quán)利要求1所述的一種利用位置圖像塊重建的人臉圖像超分辨率方法, 其特征在于所述位置塊是指對(duì)于輸入的低分辨率人臉圖像中每個(gè)低分辨率圖像塊zfa力,訓(xùn)練集中每個(gè)樣本圖像在(/,力位置的圖像塊y,(")、 y/a力,或者與(/,y)位置相鄰的8鄰域圖像塊都稱為zf (/,_/)的位置塊。
4、 根據(jù)權(quán)利要求1所述的一種禾l傭位置圖像塊重建的人臉圖像超分辨率方法,其特征在于所述由低分辨率訓(xùn)練集每個(gè)樣本圖像位置塊線性重建輸入的低分辨率圖像塊的最優(yōu)權(quán)值計(jì)算方法如下最優(yōu)權(quán)值計(jì)算公式為w(/,/^7^r ,其中z = (x-Yf(;r-Y)、L A CX = X/(^).C、 C是單位列向量,Y是一個(gè)MxZ)維的矩陣,其每一列由d',力 組成,"為d/,力的維數(shù),—zW)為每個(gè)i(/J)組合成的M維權(quán)值向量,在實(shí)際 的計(jì)算中常采用一個(gè)更快捷的方法,即求線性系統(tǒng)方程Z.—W卜C 。
5、 根據(jù)權(quán)利要求1所述的一種利用位置圖像塊重建的人臉圖像超分辨率方法, 其特征在于所述加權(quán)合成高分辨率圖像塊方法如下求出輸入的低分辨率圖像塊義/(/,刀對(duì)應(yīng)的高分辨率圖像塊^/(/,y)計(jì)算公式 為z/("y卜fx,,/;K(/,力。
全文摘要
一種利用位置圖像塊重建的人臉圖像超分辨率方法,將輸入的低分辨率人臉圖像、高低分辨率訓(xùn)練集人臉圖像分別劃分為相互重疊的圖像塊;對(duì)于輸入低分辨率人臉圖像中每個(gè)劃分的圖像塊,計(jì)算出由低分辨率訓(xùn)練集每個(gè)樣本圖像位置塊進(jìn)行線性重建時(shí)的最優(yōu)權(quán)值;將低分辨率訓(xùn)練集樣本圖像位置塊,替換為一一對(duì)應(yīng)的高分辨率訓(xùn)練集樣本圖像位置塊,加權(quán)合成高分辨率圖像塊;將合成的高分辨率圖像塊按照其在人臉圖像的位置,拼接為整體圖像。本發(fā)明直接利用訓(xùn)練集每個(gè)樣本圖像同一位置的圖像塊來重建同一位置高分辨率圖像塊,避免了同類算法中常見的流形學(xué)習(xí)或特征提取步驟,大大節(jié)省運(yùn)算時(shí)間和復(fù)雜程度;而且提升了所合成的高分辨率圖像的質(zhì)量。
文檔編號(hào)G06T5/50GK101477684SQ200810232778
公開日2009年7月8日 申請(qǐng)日期2008年12月11日 優(yōu)先權(quán)日2008年12月11日
發(fā)明者張軍平, 祥 馬, 華 黃, 春 齊 申請(qǐng)人:西安交通大學(xué)