一種基于彩色視頻運動矢量的深度圖序列分形編碼方法
【專利摘要】本發(fā)明提出了一種基于彩色視頻運動矢量的深度圖序列分形編碼方法。首先使用分形視頻壓縮方法編碼彩色視頻,然后用分形視頻解壓縮方法解碼彩色視頻,以獲得彩色視頻各宏塊及小塊的運動矢量。深度圖序列的I幀編碼,在H.264幀內(nèi)預(yù)測編碼方法基礎(chǔ)上定義了平滑塊,平滑塊直接復(fù)制相鄰參考像素值,而無需遍歷各種預(yù)測方向;深度圖序列的P幀進(jìn)行塊運動估計/補償分形編碼,利用深度圖序列幀宏塊與相應(yīng)彩色視頻宏塊運動矢量相關(guān)性,進(jìn)行深度圖序列幀宏塊運動矢量預(yù)測,并設(shè)計增強型非均勻多層次六邊形搜索模板代替原非對稱十字型多層次六邊形格點搜索算法(UMHexagonS)中的非均勻多層次六邊形搜索模板,利用改進(jìn)的UMHexagonS算法搜索最相似匹配塊,記錄分形參數(shù)。最后利用熵編碼CABAC壓縮I幀和P幀的殘差幀和P幀的分形參數(shù)。
【專利說明】一種基于彩色視頻運動矢量的深度圖序列分形編碼方法
【技術(shù)領(lǐng)域】:
[0001]本發(fā)明屬于三維視頻壓縮編碼領(lǐng)域,涉及深度圖序列的壓縮編碼,為三維立體視頻編碼的實時性應(yīng)用奠定了基礎(chǔ),進(jìn)一步提高了基于深度圖的立體視頻壓縮編碼的性能。
【背景技術(shù)】:
[0002]深度圖所代表的是場景到攝像機成像平面的距離信息,它將實際深度值量化到[0,255],以獲得代表深度信息的灰度圖(參見Tanimoto M, Fujii T, Suzuki K, etal.Mult1-view depth map of Rena and Akko&Kayo[C], ISO/IEC JTC1/SC29/WG11, MPEG-M14888, China:Shenzhen, 2007.)。
[0003]深度圖壓縮是三維視頻系統(tǒng)中的核心技術(shù)。目前,對深度圖序列壓縮的方法,主要是基于H.264/AVC標(biāo)準(zhǔn)。如楊旭等針對三維視頻編碼復(fù)雜度較高的問題,提出一種快速深度圖像幀內(nèi)編碼方法,該方法基于視頻圖像與深度圖像的相關(guān)性,利用視頻圖像的最優(yōu)幀內(nèi)預(yù)測模式信息,優(yōu)化深度圖像幀內(nèi)編碼預(yù)測模式的選擇范圍,減少率失真代價函數(shù)的計算量,從而降低深度圖像幀內(nèi)編碼復(fù)雜度(參見楊旭,常義,林霍等.一種三維視頻深度圖像快速幀內(nèi)編碼方法[J].西安電子科技大學(xué)學(xué)報(自然科學(xué)版),2012,39(3):7-13.)。Byung Tae Oh等定義了一個深度失真函數(shù)(參見Byung Tae Oh, Jaejoon Lee,Du_sik Park.Depth map coding based on synthesized view distortion function[J].1EEE Journalof Selected Topics in Signal Processing.2011,5 (7): 1344-1352.XD.V.S.X.De Silva等提出了 新的模式選擇方法(參見 D.V.S.X.De Silva, ff.A.C.Fernando, S.T.Worral1.1ntra mode selection method for depth maps of3D video based on renderingdistortion modeling[J].1EEE Transactions on Consumer Electronics, 2010,56(4): 2735-2740.)。
[0004]近年來分形理論也被應(yīng)用到視頻序列的壓縮上,其基本思想是在視頻編碼過程中將每視頻幀(首幀除外)上的子塊從前一幀而不是同一幀找相匹配的父塊。其中最為經(jīng)典和影口向較大的參見(C.S.Kim, R.C.Kim, S.U.Lee.Fractal coding of video sequence usingcircular prediction mapping and noncontractive inter frame mapping[J].1EEETransactions on Image Processing, 1998,7 (4): 601-605.)。該方法米用類似于標(biāo)準(zhǔn)視頻編碼方法所采用的運動估計/補償技術(shù),利用了相鄰幀之間的時間強相關(guān)性,對視頻序列壓縮取得了較好的效果。Koji Ohse與Masahiro Nakagawa提出將視頻序列變換到頻率域,再應(yīng)用分形視頻壓縮方法將不同分量的序列壓縮編碼(參見Koji Ohse, Masahiro Nakagawa.Fractal video coding with the orthogonal transformation[J], Electronics andCommunications in Japan, 2007, 90 (3): 36-47),此方法提供了在確定壓縮比的情況下,實現(xiàn)對視頻較好的壓縮。張喻平與豐洪才提出了一種利用遺傳算法提高視頻分形壓縮編碼搜索速度的算法。(參見張喻平,豐洪才.利用遺傳算法提高視頻分形壓縮編碼搜索速度[J].計算機與數(shù)字工程,2007,35(1):28-30.)這種基于遺傳算法的視頻分形壓縮編碼改進(jìn)了遺傳算法中搜索空間的構(gòu)造機理,結(jié)合運用合適的迭代函數(shù)系統(tǒng)和仿射變換,從而縮短了壓縮編碼時間,并且視頻的恢復(fù)質(zhì)量略優(yōu)于全搜索算法和傳統(tǒng)的分形壓縮算法。
[0005]為了解決目前基于深度圖的三維視頻編碼復(fù)雜度高的問題,本發(fā)明方法通過改進(jìn)
H.264幀內(nèi)預(yù)測編碼方法,實現(xiàn)深度圖序列I幀編碼;通過利用深度圖序列幀宏塊與相應(yīng)彩色視頻宏塊運動矢量相關(guān)性,進(jìn)行深度圖序列幀宏塊運動矢量預(yù)測,并設(shè)計增強型非均勻多層次六邊形搜索模板代替原非對稱十字型多層次六邊形格點搜索算法(UMHexagonS)中的非均勻多層次六邊形搜索模板,實現(xiàn)深度圖序列P幀分形編碼。實驗證明,本發(fā)明方法實現(xiàn)了深度圖序列壓縮編碼,并且編碼時間及編碼碼率明顯減少。
【發(fā)明內(nèi)容】
:
[0006]本發(fā)明提出了一種基于彩色視頻運動矢量的深度圖序列分形編碼方法。首先使用分形視頻壓縮方法編碼彩色視頻,然后用分形視頻解壓縮方法解碼彩色視頻,以獲得彩色視頻各宏塊及小塊的運動矢量。深度圖序列的I幀編碼,在H.264幀內(nèi)預(yù)測編碼方法基礎(chǔ)上定義了平滑塊,平滑塊直接復(fù)制相鄰參考像素值,而無需遍歷各種預(yù)測方向;深度圖序列的P幀進(jìn)行塊運動估計/補償分形編碼,利用深度圖序列幀宏塊與相應(yīng)彩色視頻宏塊運動矢量相關(guān)性,進(jìn)行深度圖序列幀宏塊運動矢量預(yù)測,并設(shè)計增強型非均勻多層次六邊形搜索模板代替原非對稱十字型多層次六邊形格點搜索算法(UMHexagonS)中的非均勻多層次六邊形搜索模板,利用改進(jìn)的UMHexagonS算法搜索最相似匹配塊,記錄分形參數(shù)。最后利用熵編碼CABAC壓縮I幀和P幀的殘差幀和P幀的分形參數(shù)。
[0007]—種基于彩色視頻運動矢量的深度圖序列分形編碼方法,其特征在于實現(xiàn)步驟如下:
[0008]步驟一:使用基于分形的視頻壓縮方法編碼彩色視頻;
[0009]步驟二:使用基于分形的視頻解壓縮方法解碼彩色視頻,獲得彩色視頻各宏塊及小塊編碼運動矢量,作為相應(yīng)深度圖序列幀宏塊或小塊的候選預(yù)測運動矢量;
[0010]步驟三:若為深度圖序列的I幀(第一幀必須為I幀,其它幀可以設(shè)置是否為I幀),使用改進(jìn)的H.264幀內(nèi)預(yù)測編碼方法預(yù)測I幀。通過原始幀和預(yù)測幀之差得到編碼端殘差幀。轉(zhuǎn)入步驟五編碼殘差;若為深度圖序列的P幀,轉(zhuǎn)到步驟四;
[0011]步驟四:若為深度圖序列的P幀,依次對當(dāng)前幀的所有宏塊進(jìn)行運動估計/補償分形編碼。在參考幀中的搜索窗內(nèi)對當(dāng)前宏塊進(jìn)行塊匹配,父塊的大小與子塊的大小相同。利用改進(jìn)的非對稱十字型多層次六邊形格點搜索算法(UMHexagonS),搜索出匹配誤差MSE最小的點。如果匹配誤差MSE小于開始設(shè)定的閾值,保存當(dāng)前的迭代函數(shù)系統(tǒng)系數(shù)即IFS系數(shù),轉(zhuǎn)入步驟六得到本塊的重建塊;否則,依次按照樹狀結(jié)構(gòu)對該塊進(jìn)行劃分,并對各個劃分得到的小塊,利用改進(jìn)的UMHexagonS算法,分別計算最小匹配誤差MSE,如果最小匹配誤差MSE小于設(shè)定閾值,停止劃分并記錄該小塊IFS系數(shù),轉(zhuǎn)入步驟六得到本塊的重建塊;否則繼續(xù)劃分,直到將當(dāng)前塊劃分為預(yù)先設(shè)定的最小塊4X 4塊,記錄IFS系數(shù),轉(zhuǎn)入步驟六得到本塊的重建塊。如果當(dāng)前幀所有的宏塊都已編碼完畢,所有的重建塊組成重建圖像(即下一幀的參考幀),通過原始圖像與重建圖像之差得到編碼端殘差圖像,轉(zhuǎn)到步驟五編碼殘差。所述搜索窗為在參考幀中的矩形搜索區(qū)域;所述IFS系數(shù)包括父塊與子塊的位置偏移,即運動矢量(X,y)和比例因子S、偏移因子ο ;
[0012]步驟五:殘差圖像的數(shù)據(jù)經(jīng)過DCT、量化之后的系數(shù)一方面進(jìn)行Zig-Zag掃描,然后用熵編碼CABAC進(jìn)行編碼寫入碼流;另一方面經(jīng)過反量化、反DCT變換后得到解碼端殘差幀。由預(yù)測幀和解碼端殘差幀之和得到重建幀(即下一幀的參考幀)。如果是P幀則還要對所有IFS系數(shù)進(jìn)行有符號指數(shù)哥倫布編碼。判斷當(dāng)前幀是否為最后一幀,如果是最后一幀結(jié)束編碼;否則,返回步驟三繼續(xù)處理下一幀圖像;
[0013]步驟六:通過保存的IFS系數(shù)代入解碼方程計算得到預(yù)測值,由原始塊和預(yù)測塊之差得到編碼端殘差塊,編碼端殘差塊經(jīng)過DCT變換、量化、反量化和反DCT變換得到解碼端殘差塊,再由預(yù)測塊和解碼端殘差塊之和得到重建塊。轉(zhuǎn)入步驟四編碼深度圖序列P幀下一宏塊。
[0014]所述一種基于彩色視頻運動矢量的深度圖序列分形編碼方法,處理的彩色視頻與深度圖序列均為YUV格式。
[0015]所述步驟一中基于分形的視頻壓縮方法包括以下四個步驟:
[0016]I)如果是I幀(第一幀必須為I幀,其它幀可以設(shè)置是否為I幀),采用H.264幀內(nèi)編碼方式,對于每個當(dāng)前塊在各種可能的預(yù)測方式中選擇具有最小代價的預(yù)測模式,完成所有塊的預(yù)測后可以得到I幀的預(yù)測幀。通過原始幀和預(yù)測幀之差得到編碼端殘差幀。轉(zhuǎn)入步驟3)編碼殘差;如果是P幀,轉(zhuǎn)到步驟2);
[0017]2)如果是P幀。依次對當(dāng)前幀的所有宏塊進(jìn)行編碼。在參考幀中的搜索窗內(nèi)對當(dāng)前宏塊進(jìn)行塊匹配;在進(jìn)行子塊與父塊的匹配過程中,子塊的位置作為父塊的起始搜索點,父塊的大小與子塊的大小相同;對每個宏塊進(jìn)行樹狀結(jié)構(gòu)分塊,即分塊從大到小可分為16X16、16X8、8X16、8X8,8X8往下(亞宏塊分割)可以分為8X4,4X8,4X4。幀間編碼時,首先對編碼宏塊的各種塊劃分尺寸的幀間預(yù)測模式進(jìn)行運動估計,確定迭代函數(shù)系統(tǒng)系數(shù)即IFS系數(shù);然后比較所有模式的率失真代價;最后將率失真代價最小的模式作為最優(yōu)幀間預(yù)測模式。
[0018]IFS系數(shù)由如下的率失真優(yōu)化函數(shù)確定:
[0019]
【權(quán)利要求】
1.一種基于彩色視頻運動矢量的深度圖序列分形編碼方法,其特征在于如下步驟: 步驟一:使用基于分形的視頻壓縮方法編碼彩色視頻; 步驟二:使用基于分形的視頻解壓縮方法解碼彩色視頻,獲得彩色視頻各宏塊及小塊編碼運動矢量,作為相應(yīng)深度圖序列幀宏塊或小塊的候選預(yù)測運動矢量; 步驟三:若為深度圖序列的I幀(第一幀必須為I幀,其它幀可以設(shè)置是否為I幀),使用改進(jìn)的H.264幀內(nèi)預(yù)測編碼方法預(yù)測I幀。通過原始幀和預(yù)測幀之差得到編碼端殘差幀。轉(zhuǎn)入步驟五編碼殘差;若為深度圖序列的P幀,轉(zhuǎn)到步驟四; 步驟四:若為深度圖序列的P幀,依次對當(dāng)前幀的所有宏塊進(jìn)行運動估計/補償分形編碼。在參考幀中的搜索窗內(nèi)對當(dāng)前宏塊進(jìn)行塊匹配,父塊的大小與子塊的大小相同。利用改進(jìn)的非對稱十字型多層次六邊形格點搜索算法(UMHexagonS),搜索出匹配誤差MSE最小的點。如果匹配誤差MSE小于開始設(shè)定的閾值,保存當(dāng)前的迭代函數(shù)系統(tǒng)系數(shù)即IFS系數(shù),轉(zhuǎn)入步驟六得到本塊的重建塊;否則,依次按照樹狀結(jié)構(gòu)對該塊進(jìn)行劃分,并對各個劃分得到的小塊,利用改進(jìn)的UMHexagonS算法,分別計算最小匹配誤差MSE,如果最小匹配誤差MSE小于設(shè)定閾值,停止劃分并記錄該小塊IFS系數(shù),轉(zhuǎn)入步驟六得到本塊的重建塊;否則繼續(xù)劃分,直到將當(dāng)前塊劃分為預(yù)先設(shè)定的最小塊4X 4 ±夾,記錄IFS系數(shù),轉(zhuǎn)入步驟六得到本塊的重建塊。如果當(dāng)前幀所有的宏塊都已編碼完畢,所有的重建塊組成重建圖像(即下一幀的參考幀),通過原始圖像與重建圖像之差得到編碼端殘差圖像,轉(zhuǎn)到步驟五編碼殘差。所述搜索窗為在參考幀中的矩形搜索區(qū)域;所述IFS系數(shù)包括父塊與子塊的位置偏移,即運動矢量(X,y)和比例因子S、偏移因子ο ; 步驟五:殘差圖像的數(shù)據(jù)經(jīng)過DCT、量化之后的系數(shù)一方面進(jìn)行Zig-Zag掃描,然后用熵編碼CABAC進(jìn)行編碼寫入碼流;另一方面經(jīng)過反量化、反DCT變換后得到解碼端殘差幀。由預(yù)測幀和解碼端殘差幀之和得到重建幀(即下一幀的參考幀)。如果是P幀則還要對所有IFS系數(shù)進(jìn)行有符號指數(shù)哥倫布編碼。判斷當(dāng)前幀是否為最后一幀,如果是最后一幀結(jié)束編碼;否則,返回步驟三繼續(xù)處理下一幀圖像; 步驟六:通過保存的IFS系數(shù)代入解碼方程計算得到預(yù)測值,由原始塊和預(yù)測塊之差得到編碼端殘差塊,編碼端殘差塊經(jīng)過DCT變換、量化、反量化和反DCT變換得到解碼端殘差塊,再由預(yù)測塊和解碼端殘差塊之和得到重建塊。轉(zhuǎn)入步驟四編碼深度圖序列P幀下一宏塊。
2.根據(jù)權(quán)利要求1所述一種基于彩色視頻運動矢量的深度圖序列分形編碼方法,其特征在于:處理的彩色視頻與深度圖序列均為YUV格式。
3.根據(jù)權(quán)利要求1所述一種基于彩色視頻運動矢量的深度圖序列分形編碼方法,其特征在于:所述步驟一中基于分形的視頻壓縮方法包括以下四個步驟: 1)如果是I幀(第一幀必須為I幀,其它幀可以設(shè)置是否為I幀),采用H.264幀內(nèi)編碼方式,對于每個當(dāng)前塊在各種可能的預(yù)測方式中選擇具有最小代價的預(yù)測模式,完成所有塊的預(yù)測后可以得到I幀的預(yù)測幀。通過原始幀和預(yù)測幀之差得到編碼端殘差幀。轉(zhuǎn)入步驟3)編碼殘差;如果是P幀,轉(zhuǎn)到步驟2); 2)如果是P幀。依次對當(dāng)前幀的所有宏塊進(jìn)行編碼。在參考幀中的搜索窗內(nèi)對當(dāng)前宏塊進(jìn)行塊匹配;在進(jìn)行子塊與父塊的匹配過程中,子塊的位置作為父塊的起始搜索點,父塊的大小與子塊的大小相同;對每個宏塊進(jìn)行樹狀結(jié)構(gòu)分塊,即分塊從大到小可分為16父16、16\8、8\16、8\8,8父8往下(亞宏塊分割)可以分為8X4,4X8,4X4。幀間編碼時,首先對編碼宏塊的各種塊劃分尺寸的幀間預(yù)測模式進(jìn)行運動估計,確定迭代函數(shù)系統(tǒng)系數(shù)即IFS系數(shù);然后比較所有模式的率失真代價;最后將率失真代價最小的模式作為最優(yōu)幀間預(yù)測模式。 IFS系數(shù)由如下的率失真優(yōu)化函數(shù)確定:
Jmotion-MSE (S,O, X, y, ref) + λ motion*R (s,ref) (I) 其中IFS系數(shù)包括父塊位置(x,y)和比例因子S、偏移因子O,s和ο的計算公式如下:
4.根據(jù)權(quán)利要求1所述一種基于彩色視頻運動矢量的深度圖序列分形編碼方法,其特征在于:所述步驟二中基于分形的視頻解壓縮方法包括以下五個步驟: 1)解碼端獲得壓縮的碼流。碼流中數(shù)據(jù)元素首先進(jìn)行熵解碼和重排序,獲得一系列量化系數(shù),這些系數(shù)經(jīng)過反量化和反變換得到解碼端殘差數(shù)據(jù); 2)判斷解碼幀是否為I幀,若是I幀轉(zhuǎn)入步驟3),否則轉(zhuǎn)入步驟4); 3)對于I幀,首先由H.264幀內(nèi)預(yù)測方式得到預(yù)測幀,預(yù)測幀與解碼端殘差幀進(jìn)行相加之后得到重建幀,幀數(shù)加I轉(zhuǎn)入步驟5); 4)對于P幀,首先從碼流中讀入該幀所有宏塊的劃分方式、每一個小塊的迭代函數(shù)系統(tǒng)系數(shù)與運動矢量,由各迭代函數(shù)系統(tǒng)系數(shù)和運動矢量分別計算出解碼端的預(yù)測塊形成解碼端的預(yù)測幀,預(yù)測幀與殘差幀相加得到重建幀。幀數(shù)加I轉(zhuǎn)到步驟5);5)判斷此時所有幀是否都已解碼,若都解碼完畢,結(jié)束解碼過程,否則轉(zhuǎn)入步驟2)。
5.根據(jù)權(quán)利要求1所述一種基于彩色視頻運動矢量的深度圖序列分形編碼方法,其特征在于:所述步驟三中改進(jìn)的H.264幀內(nèi)預(yù)測編碼方法,相比于原H.264幀內(nèi)預(yù)測編碼方法,本方法節(jié)省了預(yù)測時間與編碼碼率。 原H.264幀內(nèi)預(yù)測編碼方法,需要在各種可能的預(yù)測方向中,利用拉格朗日率失真優(yōu)化準(zhǔn)則選擇率失真代價最小的預(yù)測模式。若最終預(yù)測模式為16X16,則需依次將MBtype, Predy, CBP, Preduv, QP, Coeff寫入碼流;若最終預(yù)測模式為4X4,則需依次將MBtype, T8, 16 (Predy), CBP, Preduv, QP, Coeff 寫入碼流。其中 Predy 代表亮度預(yù)測方向,Preduv代表色度預(yù)測方向,QP代表量化參數(shù),CBP代表編碼塊模式,Coeff代表變換系數(shù),T8代表8X8分塊標(biāo)志位。 相比于原H.264幀內(nèi)預(yù)測編碼方法,本方法的改進(jìn)主要體現(xiàn)在以下三點: 1)首先定義“平滑塊”的概念。統(tǒng)計發(fā)現(xiàn),在深度圖中除了包含尖銳的對象邊緣的塊外,大部分塊中包含的各像素亮度值相等,基于此定義“平滑塊”:若當(dāng)前塊不包含對象邊緣,且其各相鄰參考像素值相等,則定義當(dāng)前塊為“平滑塊”。其中16 X 16宏塊的相鄰參考像素位于該宏塊左方與上方,4X4塊的相鄰參考像素位于該4X4塊左方、上方與右上方; 2)若當(dāng)前編碼宏塊模式為16X16,且為平滑塊,則無需選擇預(yù)測方向,預(yù)測塊像素值直接復(fù)制該塊相鄰參考像素的值,且無需將語法元素Predy寫入碼流;若為非平滑塊,則按照傳統(tǒng)H.264幀內(nèi)預(yù)測編碼方法編碼宏塊; 3)若當(dāng)前編碼宏塊模式為4X4,且宏塊包含有N個4X4平滑塊,則每個4X4平滑塊預(yù)測像素值直接復(fù)制該4X4塊相鄰參考像素的值,相應(yīng)預(yù)測方向Predy無需寫入碼流;非平滑塊按照傳統(tǒng)H.264幀內(nèi)預(yù)測編碼方法在9種可能的預(yù)測方向中選擇率失真代價最小的預(yù)測方向。則此時碼流中共有16-N個PredJg法元素,為了在解碼時知道正確的Predy的個數(shù),需要對語法元素重排序,并且本發(fā)明方法不使用8 X 8塊,將語法元素T8移去,則最終碼流中語法元素依次為:MBtype,Preduv, Predy, CBP, QP, Coeff, (l6_N)Predy。
6.根據(jù)權(quán)利要求1所述一種基于彩色視頻運動矢量的深度圖序列分形編碼方法,其特征在于:所述步驟四中改進(jìn)的UMHexagonS算法相比于H.264中的UMHexagonS算法,本方法的改進(jìn)主要體現(xiàn)在以下兩點: 1)起始點預(yù)測: 深度圖序列幀宏塊的運動矢量與相應(yīng)彩色視頻宏塊運動矢量具有相關(guān)性,且基于分形的深度圖序列編碼算法沒有涉及到多參考幀,故利用四種方式進(jìn)行起始點預(yù)測: a)空域中值預(yù)測:取當(dāng)前子塊的左、上、右相鄰塊的運動矢量中間值為預(yù)測運動矢量; b)相應(yīng)彩色視頻宏塊運動矢量預(yù)測:根據(jù)深度圖序列幀宏塊與相應(yīng)彩色視頻宏塊運動矢量的相關(guān)性,取相應(yīng)彩色視頻宏塊的運動矢量為當(dāng)前編碼深度圖序列幀宏塊的預(yù)測運動矢量; c)原點預(yù)測:令預(yù)測運動矢量為(0,0); d)相鄰參考幀預(yù)測:利用前一參考幀中對應(yīng)位置塊的運動矢量作為當(dāng)前塊的預(yù)測運動矢量。 2)用增強型非均勻多層次六邊形搜索模板代替原非均勻多層次六邊形搜索模板: UMHexagonS算法采用了多種搜索模板,但搜索過程中并不記錄前一步驟已搜索區(qū)域內(nèi)的檢測點,造成多個檢測點重復(fù)搜索。因此設(shè)計了增強型非均勻多層次六邊形搜索模板,既避免了運動矢量密集區(qū)域重復(fù)搜索現(xiàn)象,又兼顧了自然深度圖序列的運動規(guī)律,使分布在水平方向±45°區(qū)域的搜索點數(shù)多于在垂直方向±45°區(qū)域的搜索點數(shù),取代原非均勻多層次六邊形搜索模板。本發(fā)明方法中增強型非均勻多層次六邊形搜索模板由內(nèi)至外,在第I至第4層上分布的搜索點數(shù)分別為8、12、16、16,其中第1、2層減少了原非均勻多層次六邊形搜索模板第1、2層垂直方向的搜索點數(shù),僅保留了垂直方向最上、最下與中間的檢測點,第I層斜邊中點的檢測點也未保留, 第3、4層與原非均勻多層次六邊形搜索模板第3、4層相應(yīng)檢測點相同。
【文檔編號】H04N13/00GK103581647SQ201310453270
【公開日】2014年2月12日 申請日期:2013年9月29日 優(yōu)先權(quán)日:2013年9月29日
【發(fā)明者】祝世平, 趙冬玉 申請人:北京航空航天大學(xué)