專利名稱:一種基于sort-last體系結(jié)構(gòu)的并行繪制系統(tǒng)的制作方法
技術(shù)領(lǐng)域:
本發(fā)明涉及一種基于sort-last (后歸屬判斷)體系結(jié)構(gòu)的并行繪制系統(tǒng),屬于并 行繪制技術(shù)領(lǐng)域。
背景技術(shù):
面對大型數(shù)字游戲、大中城市三維數(shù)字化管理、大型區(qū)域聯(lián)合軍事仿真訓(xùn)練、大規(guī) ??茖W(xué)計算可視化等應(yīng)用領(lǐng)域,專業(yè)圖形工作站已很難適應(yīng)越來越復(fù)雜的繪制算法以及越 來越大的場景數(shù)據(jù)規(guī)模的需求,并且其價格昂貴,系統(tǒng)擴展性不佳,而基于PC集群的并行 繪制引擎因具有高性價比、擴展性好、使用靈活和升級方便等諸多優(yōu)點成為近幾年來研發(fā) 的熱點。人們更趨向于將配有高性能3D圖形卡的PC集群通過千兆以太網(wǎng)互連,從而構(gòu)建 基于集群的并行繪制系統(tǒng)以替代單機實現(xiàn)大規(guī)模場景的實時繪制。本發(fā)明所涉及的并行繪制系統(tǒng)由PC集群構(gòu)成,如圖2所示,采用sort-last體系 結(jié)構(gòu),PC集群有1臺PC機作為融合節(jié)點,其余PC機作為繪制節(jié)點。所謂sort-last體系 結(jié)構(gòu),即各繪制節(jié)點按應(yīng)用需要分別完成各自的場景圖像繪制,形成中間圖像及相應(yīng)的像 素深度圖像,再交由融合節(jié)點經(jīng)深度融合后形成最終圖像。例如某些繪制節(jié)點負(fù)責(zé)繪制場 景中的背景,某繪制節(jié)點負(fù)責(zé)繪制場景中的物體,某些節(jié)點負(fù)責(zé)繪制場景中的地形,然后將 各節(jié)點繪制的圖像依像素深度融合,形成一個完整的場景,如圖3所示。對sort-last體系結(jié)構(gòu)而言,圖像融合需要精確的像素深度信息,因而針對各繪 制節(jié)點的像素深度圖數(shù)據(jù),必須采用無損壓縮的方法,sort-last系統(tǒng)的最大優(yōu)點是簡明, 場景數(shù)據(jù)的不均勻分布引起的負(fù)載不均衡較小,但由于各繪制節(jié)點在每一幀都需要將兩幅 圖像即場景圖像和相應(yīng)的像素深度圖像傳給融合節(jié)點,并由融合節(jié)點采用基于深度信息的 圖像融合策略生成最終圖像,因而sort-last系統(tǒng)的圖像數(shù)據(jù)傳輸和深度圖像融合是系統(tǒng) 的主要開銷和瓶頸,本發(fā)明提出了一種基于模板信息的LZW深度信息無損壓縮方法和一種 改進的directsend圖像融合算法,能夠有效提高圖像數(shù)據(jù)傳輸?shù)男什⒏纳谱罱K圖像融 合的效果。
發(fā)明內(nèi)容
本發(fā)明要解決的技術(shù)問題是克服現(xiàn)有技術(shù)的不足,采用sort-last (后歸屬判 斷)體系結(jié)構(gòu),提出了一種基于模板信息的LZW深度信息無損壓縮方法和一種基于direct send的圖像融合算法?;谀0逍畔⒌腖ZW深度信息無損壓縮方法利用了自適應(yīng)幀間差值 技術(shù)和基于模板的信息壓縮技術(shù),提高了深度圖像的傳輸效率,基于direct send的圖像融 合算法改善了最終圖像融合的效果。本發(fā)明采用的技術(shù)方案基于sort-last體系結(jié)構(gòu)的并行繪制系統(tǒng),其特點在于 采用如圖2所示的機群系統(tǒng),融合節(jié)點和繪制節(jié)點通過局域網(wǎng)相連,繪制節(jié)點負(fù)責(zé)各自場 景的繪制、融合節(jié)點負(fù)責(zé)匯總各繪制節(jié)點形成的場景圖像和相應(yīng)的像素深度圖像,并依據(jù) 圖像深度信息最終融合形成最終圖像輸出。本系統(tǒng)具體通過以下步驟實現(xiàn)并行體繪制,如圖1所示(1)新一幀繪制開始,各繪制節(jié)點分別繪制場景圖像,形成場景圖及相應(yīng)的像素深 度圖;(2)各繪制節(jié)點對第(1)步形成的像素深度圖進行基于模板信息的LZW深度信息 無損壓縮;(3)各繪制節(jié)點對第(1)步所形成的場景圖像進行Jpeg壓縮;(4)各繪制節(jié)點將第(2)步和第(3)步所形成的壓縮后的場景圖像和像素深度圖 通過網(wǎng)絡(luò)發(fā)送給融合節(jié)點,融合節(jié)點將所接收到的數(shù)據(jù)進行解壓;(5)融合節(jié)點采用改進的direct send圖像融合算法,依據(jù)深度信息對各繪制節(jié) 點所繪的場景圖像進行深度融合,形成最終圖像輸出,最后返回第1步開始新一幀圖像的 繪制。本發(fā)明與現(xiàn)有技術(shù)相比的有益效果是(1)相對現(xiàn)有技術(shù),本發(fā)明提出的基于模板信息的LZW圖像深度信息無損壓縮方 法充分利用了像素深度信息中的數(shù)據(jù)相關(guān)性,即相近的圖像深度信息之間的差值較小的特 點,實現(xiàn)了以模板信息為基準(zhǔn)的圖像深度信息的差值傳遞,通過差值傳遞過程中數(shù)據(jù)冗余 的大小變化,而不斷動態(tài)修改模板信息,再進行LZW數(shù)據(jù)的壓縮傳遞,有效提高了數(shù)據(jù)壓縮 的效率,此外,該方法還在應(yīng)用允許的前提下通過插值技術(shù)進一步降低網(wǎng)絡(luò)信息的傳輸量。(2)在sort last體系結(jié)構(gòu)中,最常用的深度合成方法為direct send方法,由于 directsend方法在深度融合過程中僅依據(jù)深度信息比較,使得并行繪制系統(tǒng)中各繪制節(jié) 點所繪制的圖像信息完全獨立,僅體現(xiàn)為相互間的遮擋關(guān)系,沒有體現(xiàn)透明度及圖像融合 問題。本發(fā)明在融合節(jié)點對direct send方法加以改進,通過設(shè)置各繪制節(jié)點圖像繪制的 alpha通道值,啟動混合功能,從而達成更好的圖像深度融合效果。
圖1為節(jié)點自定位過程圖示;圖2為基于sort-last并行繪制系統(tǒng)的深度融合系統(tǒng)結(jié)構(gòu)圖;圖3為基于sort-last并行繪制系統(tǒng)的圖像深度融合過程4Jpeg圖像壓縮過程示意圖;圖5Jpeg圖像解壓過程示意圖;圖6為RLE模板數(shù)據(jù)圖示;圖7為深度融合方法效果圖對比7a為direct send方法繪制效果;圖7b為本發(fā)明方法繪制效果1 ;圖7c為本發(fā)明方法繪制效果2。
具體實施例方式下面結(jié)合附圖及具體實施方式
對本發(fā)明進一步詳細(xì)說明。(1)新一幀繪制開始,各繪制節(jié)點分別繪制場景圖像,形成場景圖及相應(yīng)的像素深 度圖。
這一流程由各繪制節(jié)點完成,各繪制節(jié)點利用計算機圖形學(xué)和多媒體技術(shù)繪制一 幀場景圖像,然后從幀緩存中讀出場景圖像顏色數(shù)據(jù)及相應(yīng)的像素深度圖像數(shù)據(jù)。所謂像 素深度圖像是指與場景圖對應(yīng)位置的像素的深度,即該像素所屬的場景物體到視點的距罔。(2)各繪制節(jié)點對第⑴步形成的像素深度圖進行基于模板信息的LZW深度信息 無損壓縮。首先引入本步驟所涉及的一些概念深度圖像分塊對一幀M像素XN像素尺寸的深度圖像,以8像素X8像素為基準(zhǔn) 對深度圖像分塊。模板信息(Template Information)是像素點(x,y)壓縮編碼過程中的參考模板 值,記為 TI[x] [y],χ = 1,2,...,M;y = l,2,...,N;深度信息是第i幀深度圖像像素點(X,y)處的深度信息值,記為Cbpthi [x] [y];差值信息(Difference Information)是第i幀深度圖像像素點(x,y)的深度信 息與模板信息的差值,記為DIi [χ] [y];累積平方和是第i幀第j個圖像分塊對應(yīng)的差值信息的平方之和,記為Sumi[j];編碼信息表示第i幀深度圖像像素點(X,y)需要進行壓縮編碼的數(shù)據(jù),記為 Compressi[x] [y]。標(biāo)記信息用來標(biāo)記第i幀第j個圖像分塊對應(yīng)的編碼信息是否為模板信息,記為 Mark[j], j = 1,2,…SM,其中sM為深度圖像的分塊個數(shù)。Mark[j]以字節(jié)方式順序存儲, 每字節(jié)有8位,代表8個分塊標(biāo)記,如該位為1,表示第j個圖像分塊對應(yīng)的編碼信息的為模 板數(shù)據(jù),為0表示第j個圖像分塊對應(yīng)的編碼信息為與模板數(shù)據(jù)的差值?;谀0逍畔⒌腖ZW深度信息無損壓縮方法的具體步驟如下第一步,讀取第一幀場景的深度信息,并以之做為模板信息及當(dāng)前編碼信息即點(X,y)處的深度模板信息為TI[x] [y] = d印thjx] [y],χ = 1,2,...,M;y = l,2,…,N,當(dāng)前編碼信息為Compressi [x] [y] = TI [χ] [y], χ = 1, 2, ...,M;y = l,2,...,N;i = l,2,…;標(biāo)記第1幀編碼信息中所有分塊均為模板數(shù)據(jù),Mark[j] =Lj = 1,2,…Sm ;第二步,讀取第i幀(i > 1)的深度信息d印thjx] [y],χ = 1,2,...,M;y = l,2,...,N;i = l,2,…;第三步,計算第i幀(i > 1)深度信息與已有模板信息的差值信息DIi [χ] [y],DIiW [y] = depth, [χ] [y]-TI [χ] [y], χ = 1,2, ...,M;y=l,2,...,N;i = l, 2, …;第四步,計算第i幀(i > 1)第j塊中所有像素差值信息的累積平方和
EX(j) EY(j)SumXj]= Z Σ ΙΧχ^\2,
X=SX (J)y=SY U)其中,SX(j)為第j塊χ起始序號,EX(j)為第j塊χ終止序號,SY(j)為第j塊y 起始序號,EY(J)為第j塊y終止序號;第五步,比較第i幀(i > 1)第j塊累計平方和SumiU]與第i_l幀第j塊累計平方和Sunv1 [j]之間的關(guān)系,得到以下兩種情況情況1 =Sumi [j] ( Smv1 U],說明第i幀時第j塊圖像深度信息與模板信息之間 差別變小或者不變,維持原模板信息不變,并將第i幀時第j塊與原模板的差值信息置為當(dāng) 前編碼信息,即Compressi [x] [y] = DIi [χ] [y], χ e [SX (j),EX (j) ],y e [SY (j),EY (j)];標(biāo)記第i幀(i > 1)編碼信息中的第j分塊為深度信息與模板信息間的差值數(shù)據(jù), Mark[j] = O ;情況2 =Sumi [j] > Smv1 U],說明第i幀時第j塊圖像的深度信息與相應(yīng)的模板 信息相差較大,則更新該段內(nèi)的所有模板數(shù)據(jù)為第i幀的圖像深度數(shù)據(jù),即TI [x] [y] = Cbpthi [χ] [y], χ e [SX (j),EX (j) ],y e [SY (j),EY (j)];同時將當(dāng)前編碼信息置為相應(yīng)的模板信息,即Compressi [x] [y] = TI [χ] [y], χ e [SX (j),EX (j) ],y e [SY (j),EY (j)];標(biāo)記第i幀(i > 1)編碼信息中的第j分塊為模板數(shù)據(jù),Mark[j] = 1 ;第六步,塊序號j加1,返回(2. 4),直到遍歷完第i幀深度圖像的所有分塊,進入 第七步;第七步,對當(dāng)前編碼信息及標(biāo)記信息進行LZW壓縮編碼,即通過建立一個字符串 字典表,用較短的代碼來表示較長的字符串從而實現(xiàn)壓縮,同時壓縮比隨著輸入編碼的數(shù) 量增加而增大。例如采用如表1所示的字典表。
權(quán)利要求
基于sort last體系結(jié)構(gòu)的并行繪制方法,其特征在于采用sort last體系結(jié)構(gòu),該結(jié)構(gòu)由PC機群系統(tǒng)構(gòu)成,包括一個融合節(jié)點和若干繪制節(jié)點,節(jié)點間通過局域網(wǎng)相連,繪制節(jié)點負(fù)責(zé)各自場景的繪制,融合節(jié)點負(fù)責(zé)匯總各繪制節(jié)點形成的場景圖像和相應(yīng)的像素深度圖像,并依據(jù)圖像深度信息最終融合形成最終圖像輸出;具體包括以下步驟(1)各繪制節(jié)點分別繪制場景圖像,形成場景圖及相應(yīng)的像素深度圖;(2)各繪制節(jié)點對第(1)步形成的像素深度圖進行基于模板信息的LZW深度信息無損壓縮;(3)各繪制節(jié)點對第(1)步所形成的場景圖進行Jpeg壓縮;(4)各繪制節(jié)點將第(2)步和第(3)步所形成的壓縮后的場景圖和像素深度圖通過網(wǎng)絡(luò)發(fā)送給融合節(jié)點,融合節(jié)點將所接收到的數(shù)據(jù)進行解壓;(5)融合節(jié)點采用改進的direct send圖像融合算法,依據(jù)深度信息對各繪制節(jié)點所繪的場景圖進行深度融合,形成最終圖像輸出,返回第(1)步開始新一幀圖像的繪制。
2.根據(jù)權(quán)利要求1所述的基于sort-last體系結(jié)構(gòu)的并行繪制方法,其特征在于所 述步驟(2)中提出的基于模板信息的LZW深度信息無損壓縮方法,具體包括對一幀M像素XN像素尺寸的深度圖像,以8像素X8像素為基準(zhǔn)對深度圖像分塊,像 素點序號記為(x,y),x = l,2,…,M;y = l,2,…,N;(2.1)讀取第一幀場景的深度信息d印thi[X][y],X = 1,2,…,M;y= 1,2,…,N,并 以之做為模板信息及當(dāng)前編碼信息, 即點(χ,y)處的深度模板信息為TI [x] [y] = depthi [χ] [y], χ = 1, 2, ...,M;y=l,2,...,Ν, 當(dāng)前編碼信息為Compressi [x] [y] = TI [χ] [y], χ = 1,2, ...,M;y=l,2,...,N;i = l,2,…; 標(biāo)記第1幀編碼信息中所有分塊均為模板數(shù)據(jù),Mark[j] =Lj = 1,2,…SM,其中Sm 為深度圖像分塊個數(shù);(2. 2)讀取第i幀的深度信息,d 印 thjx] [y],χ = 1,2,...,M;y=l,2,...,N;i = l,2,…;(2. 3)計算第i幀深度信息與已有模板信息的差值信息DIi [x] [y],DIi [χ] [y] = depth, [χ] [y]-TI [χ] [y], χ = 1, 2, ...,M;y=l,2,...,N;i = l,2,…;(2. 4)計算第i幀(i > 1)第j塊中所有像素差值信息的累積平方和
全文摘要
一種基于sort-last(后歸屬判斷)體系結(jié)構(gòu)的并行繪制系統(tǒng),其特點在于針對大規(guī)模復(fù)雜場景繪制的應(yīng)用需求,構(gòu)造基于sort-last體系結(jié)構(gòu)的并行繪制系統(tǒng),通過無損深度圖像壓縮和有損場景圖像壓縮技術(shù)降低并行繪制網(wǎng)絡(luò)的傳輸負(fù)載,通過深度圖像融合技術(shù)進一步改善繪制效果。
文檔編號H04N7/26GK101986710SQ20101053525
公開日2011年3月16日 申請日期2010年11月3日 優(yōu)先權(quán)日2010年11月3日
發(fā)明者何兵, 宋健, 王莉莉, 趙沁平, 郝愛民 申請人:北京航空航天大學(xué)