一種魯棒的大場(chǎng)景稠密三維重建方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明設(shè)及一種魯椿=維重建算法,尤其設(shè)及一種魯椿鄰居圖像選取方法,屬于 圖像處理和計(jì)算機(jī)視覺領(lǐng)域。
【背景技術(shù)】
[0002] 基于圖像的多視圖S維重建是利用目標(biāo)場(chǎng)景不同視角下的圖像序列來恢復(fù)該場(chǎng) 景的=維模型,在保護(hù)歷史文物、數(shù)字娛樂和城市規(guī)劃等領(lǐng)域具有廣泛的應(yīng)用前景。相比于 傳統(tǒng)的激光掃描方法,基于圖像的=維重建具有使用簡(jiǎn)單靈活、成本低、使用性廣等優(yōu)點(diǎn), 是計(jì)算機(jī)視覺領(lǐng)域一個(gè)研究熱點(diǎn)。現(xiàn)有的基于圖像的=維重建可W分為四類;基于體素的 方法,基于表面演化的方法,基于特征點(diǎn)擴(kuò)展的方法和基于深度圖融合的方法?;隗w素的 方法需要估計(jì)目標(biāo)對(duì)象的=維包盒,然后利用能量函數(shù)優(yōu)化提取=維模型,該類方法不適 用大場(chǎng)景,而且重建精度受體素模型分辨率的限制?;诒砻嫜莼姆椒ㄍㄟ^迭代演化初 始曲面模型來最小化能量函數(shù),使其逐步收斂到目標(biāo)的真實(shí)=維模型,該類方法易收斂于 局部最優(yōu),而且對(duì)于室外大場(chǎng)景也很難獲取到初始模型?;谔卣鼽c(diǎn)擴(kuò)展的方法先在有紋 理區(qū)域重建=維稀疏點(diǎn),然后再擴(kuò)展到無(wú)紋理區(qū)域,該類方法同時(shí)使用所有可用的圖像來 重建=維模型,用于室外大場(chǎng)景時(shí)計(jì)算復(fù)雜度高,而且在弱紋理和無(wú)紋理區(qū)域計(jì)算得到準(zhǔn) 確度不高。基于深度圖融合方法先單獨(dú)計(jì)算每幅圖像對(duì)應(yīng)的深度圖像,然后利用約束條件 將深度圖融合成完整=維模型,該類方法靈活、方便,能生成高精度的=維模型,適用室外 大場(chǎng)景,但重建精度對(duì)鄰居圖像的選取敏感。
【發(fā)明內(nèi)容】
[0003] 本發(fā)明所要解決的技術(shù)問題是提供一種魯椿的大場(chǎng)景稠密=維重建方法,針對(duì)大 尺度、無(wú)結(jié)構(gòu)的大場(chǎng)景圖像序列,能快速、精確的恢復(fù)出真實(shí)的=維場(chǎng)景模型。
[0004]本發(fā)明的解決方案是;首先,充分考慮尺度、角度、基線和覆蓋面積等因素,魯椿的 選取鄰居圖像,隨后利用像素的DAISY特征和化tchMatch信息傳播框架精確計(jì)算每幅圖像 的深度圖,然后利用圖像間的一致性優(yōu)化、融合深度圖,最后利用重建S維點(diǎn)的精度去除冗 余的點(diǎn)得到最后的=維模型。
[0005] 本發(fā)明為實(shí)現(xiàn)上述解決方法,其方法步驟如下: 1、首先,對(duì)于輸入的圖像集,利用現(xiàn)有的從運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)算法(Struc化re化om Motion,SF^O標(biāo)定圖像的攝像機(jī)參數(shù),然后充分考慮基線、尺度、覆蓋面積等因素,對(duì)每一幅 圖像都選取多幅鄰居圖像,選圖公式為
【主權(quán)項(xiàng)】
1. 一種魯棒的大場(chǎng)景稠密三維重建方法,其特征在于包括以下步驟: 1) 充分考慮尺度、基線、覆蓋面積等因素的魯棒鄰居圖像選?。? 2) 使用DAISY特征差異的自我加權(quán)的代價(jià)匹配函數(shù)和PatchMatch信息傳播框架來計(jì) 算深度值; 3) 利用圖像間的一致性優(yōu)化和融合深度圖; 4) 根據(jù)重建三維點(diǎn)精度去除冗余三維點(diǎn)信息。
2. 根據(jù)權(quán)利1所述的一種魯棒的大場(chǎng)景稠密三維重建方法,其特征在于所述的充分考 慮尺度、基線、覆蓋面積等因素的魯棒鄰居圖像選取,選圖權(quán)重公式定義為:
3. 根據(jù)權(quán)利1所述的一種魯棒的大場(chǎng)景稠密三維重建方法,其特征在于所述的使用 DAISY特征差異的自我加權(quán)的代價(jià)匹配函數(shù)來計(jì)算深度值,匹配代價(jià)函數(shù)定義為:
以通過單應(yīng)矩陣計(jì)算得到,同時(shí)提取圖像和它鄰居圖像的DAISY特征,然后進(jìn)行匹配,利用PatchMatch信息傳播框架進(jìn)行深度值計(jì)算,首先隨機(jī)初始化深度值和法向量,然后鄰居點(diǎn) 擴(kuò)散可靠的深度值,最后進(jìn)行多次隨機(jī)擾動(dòng)獲得精確的深度值。
4. 根據(jù)權(quán)利1所述的一種魯棒的大場(chǎng)景稠密三維重建方法,其特征在于所述的利用圖 像間的一致性優(yōu)化和融合深度圖,對(duì)于每個(gè)深度值,如果滿足n22則保留該值,否則刪除 該點(diǎn)深度值,n定義為:
其中,S(.)是狄拉克雷Delta函數(shù),T是閾值為常數(shù)。
5.根據(jù)權(quán)利1所述的一種魯棒的大場(chǎng)景稠密三維重建方法,其特征在于所述的根據(jù)重 建三維點(diǎn)精度去除冗余三維點(diǎn)信息,先利用深度值和攝像機(jī)參數(shù)把圖像點(diǎn)反投影回三維空 間得到三維模型,因?yàn)橥粋€(gè)三維點(diǎn)在多幅圖像中可見,故反投影回三維空間后得到的模 型同一個(gè)位置會(huì)有多個(gè)三維點(diǎn),故需要?jiǎng)h除冗余的點(diǎn),刪除后即可以得到最后的三維點(diǎn)云 模型,這里考慮保留精度最高的那個(gè)點(diǎn),三維點(diǎn)的精度定義為:
【專利摘要】本發(fā)明公開了一種魯棒的大場(chǎng)景稠密三維重建方法。針對(duì)大場(chǎng)景圖像集具有尺度多變、角度不一、焦距不同和數(shù)量巨大等特點(diǎn),首先尺度魯棒的選取每幅圖像的鄰居圖像,隨后利用DAISY特征和PatchMatch信息傳播框架精確快速計(jì)算每幅圖像的深度圖,然后利用圖像與鄰居圖像集的一致性優(yōu)化融合深度圖,最后利用重建三維點(diǎn)精度去除冗余點(diǎn)得到最終的三維模型。本發(fā)明方法步驟簡(jiǎn)單、重建精度高、運(yùn)行速度快,容易在圖像級(jí)實(shí)現(xiàn)并行,能真實(shí)的還原場(chǎng)景模型,非常適合大場(chǎng)景三維重建。
【IPC分類】G06T17-00
【公開號(hào)】CN104715504
【申請(qǐng)?zhí)枴緾N201510074141
【發(fā)明人】劉怡光, 易守林, 曹麗萍, 羅以寧, 吳鵬飛
【申請(qǐng)人】四川大學(xué)
【公開日】2015年6月17日
【申請(qǐng)日】2015年2月12日