国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      使用加速來執(zhí)行基于圖像的回歸的方法

      文檔序號:1114795閱讀:204來源:國知局
      專利名稱:使用加速來執(zhí)行基于圖像的回歸的方法
      技術領域
      本發(fā)明針對一種用于解決視覺問題的方法,并且更特別地,本發(fā)明針對一種用于使用加速(boosting)來執(zhí)行基于圖像的回歸以推斷與圖像相關聯的實體的方法。
      背景技術
      本發(fā)明要求于2005年3月17日提交的序列號為60/662,877的美國臨時申請的利益,該臨時申請整體被引入作為參考。
      基于圖像的回歸(IBR,Image Based Regression)是在視覺處理中的新興的難題。IBR的問題被定義如下給出圖像x,期望推斷出與該圖像x相關聯的實體y(x)。y(x)的含義隨著應用的不同而明顯變化。例如,可以是表征圖像的特征(例如,估算人的年齡)、與圖像相關的參數(例如,腫瘤的位置和各向異性的散布(spread))、或者其它有意義的量(例如,心臟內壁的位置)。
      一種已知的視覺處理方法使用支持向量回歸來推斷形狀變形向量。另一種視覺處理方法使用相關向量回歸來從側影(silhouette)中估算人的三維(3D)姿勢。然而,在這兩種方法中,到回歸器的輸入并不是圖像自身,而是處理前的實體、例如標志位置和形狀上下文描述符。
      通常,已提出了很多機器學習方法來解決回歸問題。特別是數據驅動方法已經被普遍使用。這些方法的例子包括非參數核回歸(NPR,nonparametric kernelregression)、線性方法及其諸如核脊回歸(KRR,kernel ridge regression)和支持向量回歸(SVR)的非線性核變型。然而,由于大量難題,這些方法直接應用到視覺問題上常常是困難的或者無效的。一個難題被稱為維數的災難。輸入(也就是圖像數據)是高維數的。理想地,為了良好地表示樣本空間,所要求的圖像樣本的數目應與輸入空間的基數成指數關系。然而,實際上,相比于輸入空間的基數,訓練樣本的數目常常是非常少的。如果沒有仔細處理,很可能會出現過擬合。
      另一個難題是改變出現在圖像中的外觀。首先,存在影響感興趣的前景對象的外觀的很多因素。除了對象中的內在區(qū)別之外,外在因素包括照相機系統(tǒng)、圖像幾何學、照明條件、組成(makeup)等。其次,變化源自背景的出現,該背景的外觀也變化。第三種變化是由對準引起。為了有效地工作,回歸技術必須容忍對準誤差或者復原(regress out)對準參數。
      多個輸出也是難題,因為輸出變量也是高維數的。大多數回歸方法、諸如SVR能夠非常穩(wěn)定地處理單個輸出回歸問題。將這些方法擴展到多個輸出設置如在SVR的情況下那樣是重要的。非常幼稚的實踐、即將多個輸出去耦合成多個隔離的單個輸出任務忽略了在輸出變量的不同維數之中的統(tǒng)計學依賴性。
      存儲和計算也是要考慮的問題。回歸技術、諸如非參數核回歸(NPR)、核脊回歸(KRR)和支持向量回歸(SVR)都是數據驅動的。在數據驅動方法中存在兩個主要的缺點存儲和計算。首先,該技術需要存儲大量訓練數據。在NPR和KRR中,存儲所有訓練數據。在SVR中,存儲支持向量。因為訓練數據是高維數的圖像,所以存儲訓練數據占用很多存儲空間。其次,因為將輸入圖像與所存儲的訓練圖像相比較非常耗費時間,所以評估數據驅動回歸函數非常慢。
      通常,回歸找到以下最小化問題的解決方案g^(x)=argming&Element;&zeta;&epsiv;p(x,y){L(y(x),g(x))}---(1)]]>其中ζ是被允許的輸出函數的集合,εp(x,y)是生成分布(generating distribution)p(x,y)下的期望值,以及L(o,o)函數是損耗函數,該損耗函數使回歸器輸出g(x)與實際輸出y(x)之間的偏差惡化。
      實際上,由于分布p(x,y)是未知的,所以不可能計算期望值。給出訓練例子的集合{(xn,y(xn))}n=1N,費用函數εp(x,y)L(y(x),g(x))被近似為訓練誤差J(g)=&Sigma;n=1N(y(xn),g(xn))/N.]]>如果樣本的數目N是無窮大,則上面的近似正好是大數目的規(guī)則。不幸的是,特別是當處理圖像數據和高維數輸出參數時,N的實際值并沒有足夠大。更嚴重的問題是過擬合給出有限數目的訓練例子,很容易構建產生零訓練誤差的函數g(x)。為了與這種過擬合相抗爭,經常使用額外的正則化約束,這導致組合的費用函數(忽略比例因數N-1)J(g)=&Sigma;n=1NL(y(xn),g(xn))+&lambda;R(g)---(2)]]>
      其中λ>0是控制正則化程度的正則化系數,以及R(g)是正則化項。正則化經常在輸出函數上強加了一定的平滑度或者反映了一些有關輸出的先驗知識。
      NPR是k-近鄰(kNN)回歸的平滑版本。kNN回歸器近似于條件平均、L2意義(sense)上的最優(yōu)估計。NPR使用下面的形式g(x)=&Sigma;n-1Nh&sigma;(x;xn)y(xn)&Sigma;n-1Nh&sigma;(x;xn)---(3)]]>其中,hσ(o;xn)是核函數。最廣泛使用的核函數是RBF核h&sigma;(x;xn)=rbf&sigma;(x;xn)=exp(||x-xn||22&sigma;2)---(4)]]>RBF核具有非緊支柱。具有緊支柱的其它核函數、諸如Epanechnikov核也被使用。通常,當面臨基于圖像的回歸的情形時,NPR(雖然是平滑的)試圖過擬合數據,也就是產生低偏差和高方差。
      KRR假定,多個輸出的回歸函數使用線性形式g(x)=&Sigma;n=1Nank(x;xn)---(5)]]>其中k(xxn)是再生核函數,以及αn是加權核函數的q×1向量。再生核的選擇包括RBF核、多項式核等。從訓練數據中得到的多個輸出KRR的解決方案是g(x)=Y(K+λI)-1κ(x),(6)其中Yq×N=[y(x1),y(x2),...y(xN)]是訓練輸出矩陣,KN×N=[k(xi;xj)]是訓練數據的格拉姆矩陣,以及κ(x)N×1=[k(x;x1),k(x;x2),...,k(x;xN)]T。
      通常,當使用線性核時,因為KRR使用簡單的線性形式,所以KRR試圖欠擬合數據,也就是產生高偏差和低方差。使用非線性核函數經常提供增強的性能。KRR的一個計算難點在于倒置N×N矩陣κ+λI。
      SVR是一種穩(wěn)定的回歸方法。其當前的公式用于單個輸出數據、也就是q=1。SVR最小化下面的費用函數12||w||2+C&Sigma;n=1N|y(xn)-g(xn)|&Element;,---(7)]]>其中|o|∈是不受∈影響的函數,具有k(x;xn)的(x)&Sigma;n=1Nwnk(x;xn)]]>是再生核函數,以及wn是其權重,以及w=[w1,w2,...,wn]T。因為一些可以通過二次最優(yōu)化過程得到的系數wn是零值,所以與非零權重相關聯的樣本xn被稱為支持向量。
      SVR在偏差和方差權衡之間找到好的平衡并因此非常穩(wěn)定。不幸的是,對多個輸出的回歸問題直接應用SVR是困難的。需要能夠以使用加速來學習的多個輸出設置為目標的回歸器。

      發(fā)明內容
      本發(fā)明針對一種用于使用加速來執(zhí)行基于圖像的回歸以推斷與對象的圖像相關聯的實體的方法。學習多個圖像的回歸函數,其中,針對每個圖像,相關聯的實體是已知的。所學習的回歸函數被用來預測與圖像相關聯的實體,其中該實體是未知的。


      在下面將參考附圖更詳細地介紹本發(fā)明的優(yōu)選實施例,其中相同的參考數字表示相同的元素。
      圖1是根據本發(fā)明的用于執(zhí)行基于圖像的回歸的系統(tǒng)的框圖;圖2舉例說明圖像的例子,在這些圖像的例子上根據本發(fā)明執(zhí)行基于圖像的回歸任務;圖3舉例說明根據本發(fā)明的用于學習回歸函數的方法;圖4概述了根據本發(fā)明的遞增特征選擇方案;圖5概述了根據本發(fā)明的、針對查詢圖像的最后輸出;圖6是概述了根據本發(fā)明的用于使用加速來執(zhí)行基于圖像的回歸的方法的流程圖;圖7是概述了根據本發(fā)明的遞增特征選擇方案的流程圖;圖8示出對同一人在不同年齡階段進行標準化前和標準化后的樣本圖像;圖9示出一些具有標準分割圖像(ground truth)和回歸結果的相同的CT圖像;以及圖10示出一些具有標準分割圖像和回歸結果的超聲心動描記圖像。
      具體實施例方式
      本發(fā)明針對一種用于使用加速來執(zhí)行基于圖像的回歸以推斷與圖像相關聯的實體的方法。圖1例示了用于實現本發(fā)明的系統(tǒng)的框圖。使用照相機102來捕獲圖像,針對這些圖像應用了基于圖像的回歸。根據基于圖像的回歸的目的,可以獲得許多不同類型的圖像。圖2例示了圖像的一些例子,在這些圖像的例子上執(zhí)行基于圖像的回歸任務。例如,圖像可以是針對其確定年齡估計的人臉202。在另一個例子中,圖像可以是肺腫瘤204,其中確定腫瘤的位置和各向異性的散布。另一個例子包括人心臟的超聲波圖象206或者超聲心動圖,針對該超聲心動圖可以自動描繪左心室的心臟內壁。
      這些圖像被傳送到執(zhí)行將在后面被詳細介紹的基于圖像的回歸任務的處理器104上。一旦基于圖像的回歸任務已被執(zhí)行,經由輸出設備106可報告該結果。輸出設備106提供由基于圖像的回歸所執(zhí)行的任務結果。輸出設備106包括用于觀看處理過的圖像的顯示器。顯示器提供了由照相機102拍攝的圖像的視圖,以及也提供了從基于圖像的回歸任務中獲取的期望的信息。這些圖像被存儲在數據庫108中。
      本發(fā)明研究了,如何在給出多個圖像及其相關聯的實體的情況下學習回歸函數。如圖3中所描述的,回歸函數追蹤了圖像輸入和輸出實體的聯合空間中的非線性簇(manifold)。所考察的僅僅是來自該簇的樣本,也就是圖像x1-xN和輸出y1-yN。從這些數據庫中,推斷回歸函數。學習任務被制定為最小化費用函數J(g),該費用函數J(g)被構建來反映(i)針對數據庫中的數據的回歸器g(x)的可預測性;以及(ii)一定的平滑條件,以阻止過擬合。在公式(2)中給出了費用函數的一個例子。
      如圖4中所示,學習任務通過加速被處理。加速是逐漸最小化費用函數J(g)的迭代過程。換句話說,提高了回歸器g(x)的可預測性。假設迭代系數由t表示,則J(gt)是隨t單調減小的函數。這可以通過增加一項atht(x)到回歸器gt(x)上來實現,也就是gt(x)=gt-1(x)+atht(x),其中at是實系數,以及ht(x)是弱函數。加速將所選擇的弱函數集合組合成強函數。加速的最后輸出是回歸函數g(x)=a1h1(x)+a2h2(x)+...aThT(x),該回歸函數被用來預測如圖5中所示的針對查詢圖像xq的輸出g(xq)。
      本發(fā)明通過可被快速評估的高冗余的類似Haar的特征的集合來表示圖像。如果回歸輸出是一維的或者多個特征,則每個弱函數與一特征相關聯,如果回歸輸出是多維的,則每維表示一個回歸輸出。包括所有弱函數的集合被稱為字典集合(dictionary set)H。因此,每次加速迭代從字典集合(或者類似的一個或多個相關特征)中選擇弱函數,以致最大地減小費用函數。在完成加速以后,不需要保持訓練數據(該訓練數據的知識已經被弱函數及其系數完全吸收)。在測試過程中,不需要對訓練數據進行存儲,并且?guī)缀趿⒖淘u估回歸函數。使用簡單的決策柱(decision stump)作為弱函數,因為這些決策柱對于外觀變化是穩(wěn)定的。
      在描述用于使用加速來執(zhí)行基于圖像的回歸的方法時,集中在L2損耗函數上。為了允許通常的處理以及處理不同的數據維數的縮放作用(scalingeffort),使用下面的標準化的誤差費用L(y(x),g(x))=[y(x)-g(x)]TA[y(x)-g(x)]---(8)]]>=||y(x)-g(x)||A2]]>其中Aq×q是必須為正定的標準化矩陣,以及q是輸出變量的維數。
      正則化以各種各樣的形式存在。使用數據驅動正則化項‖μ-g(x)‖B2,其中Bq×q是必須為正定的標準化矩陣。這個正則化項具有子空間解釋,其中μ表示平均數,以及B-1表示協(xié)方差矩陣。
      接著,下面的費用函數必須被最小化。
      J(g)=&Sigma;n=1N||y(xn)-g(xn)||A2+&lambda;&Sigma;n=1N||&mu;-g(xn)||B2---(9)]]>=&Sigma;n=1N||r(xn)||A2+&lambda;&Sigma;n=1N||s(xn)||B2]]>=tr{ARRT}+&lambda;tr{BSST}]]>=||R||A2+&lambda;||S||B2]]>其中r(x)=y(tǒng)(x)-g(x)是近似誤差,s(x)=μ-g(x)是偏離誤差,以及矩陣Rq×N和Sq×N分別被定義如下R=[r(x1),r(x2),...,r(xN)],S=[s(x1),s(x2),...,s(xN)] (10)給出上面的費用函數,很容易檢查到,在迭代t時的費用函數J(gt)如下與J(gt-1)相關J(gt)=J(gt-1)(1-&epsiv;2(ht))=J(gt-1)(1-tr2{(AR+&lambda;BS)HT}tr{ARRT+&lambda;BBST}tr{(A+&lambda;B)HHT}),]]>其中H=[ht(x1),ht(x2),...,ht(xN)]。同樣地,對于迭代t,選擇最大化ε(ht)的值的最佳函數ht(x)。在找到了弱函數后,可相應地將其相關系數αt(ht)計算為&alpha;t(ht)=tr{(AR+&lambda;BS)HT}tr{(A+&lambda;B)HHT}.]]>對本發(fā)明的加速方法的總結在圖6中示出。首先,迭代系數t被初始化為零(步驟602)。這需要設置固定的參數值μ(平均向量),A和B(標準化矩陣),λ(正則化系數),以及η(收縮因數)。接著,設置與停止標準相關的值Tmax(迭代的最大數目),Jmin(最小費用函數),εmin,和αmin。接著,設置初始值,t=0,g0(x)=0,r0(x)=y(tǒng)(x),以及s0(x)=μ。
      接著,確定針對t=1,......,Tmax的迭代。首先,找出h^t=argmaxh&Element;H&epsiv;t(h)]]>和其相應的 和 (步驟604)。形成新的函數gt(x)=gt-1(x)+&eta;&alpha;^th^t(t)]]>(步驟606)。接著,評估近似誤差rt(x)=y(tǒng)(x)-gt(x)、偏離誤差st(x)=μ-gt(x)、以及費用函數J(gt)(步驟608)。然后,檢查收斂性,例如,確定J(gt)<Jmin,αt<αmin,εt<εmin,或者其組合是否成立(步驟610)。
      正如在前面部分中提及的,字典集合H通過類似Haar的特征涉及圖像。直觀上,這個函數集合必須足夠大,以致該函數集合允許通過線性組合繪制高度復雜的輸出函數y(x)。最初使用一維決策柱來構建字典集合H。使用決策柱的優(yōu)點包括(i)這些決策柱對于外觀變化是穩(wěn)定的;(ii)這些決策柱具有本地特征;(iii)使用所謂的積分圖像可以快速評估算這些決策柱;并且特別重要的是,(iv)這些決策柱允許遞增特征選擇方案,該方案將在后面被詳細描述。
      一維(1D)決策柱h(x)與Haar濾波器特征f(x)、決策閾值θ、以及采用+1或者-1的二進制值的奇偶性方向指示符p相關聯。
      每個Haar濾波器f(x)具有其自己的屬性類型、窗口位置、和窗口大小。給出中等大小的圖像,可以通過改變?yōu)V波器屬性來生成很多數目的Haar濾波器。Haar濾波器的數目由M來表示。對于每個Haar濾波器,通過調整閾值θ(稱為K偶數-空間級別(even-spaced level))可以進一步創(chuàng)建K個決策柱??傊嬖?KM個1-D決策柱。注意到,數目2KM非常大,以致在訓練期間存儲所有這些決策柱是非常困難的。
      假定輸出的維數是q。弱函數被構建為q維(q-D)決策柱h(x),該決策柱h(x)簡單地堆積q個1D決策柱。
      h(x)q×1=[h1(x),h2(x),...,hq(x)]T(12)注意到,上面的每個hj(x)可以與不同的參數相關聯。因此,可以構建包含(2KM)q個函數的足夠大的弱函數集合。
      加速作為特征選擇啟示程序(oracle)。在每輪加速中,選擇可以最大減小費用函數的特征。如在圖6中所概述的那樣,方法包括步驟604中的貪心特征選擇方案,評估該貪心特征選擇方案花費太多,因為這包括評估(2MNK)q個決策柱,這是艱難的計算任務。
      根據本發(fā)明的一個實施例,q-D回歸問題可以被分離為q個獨立的1D回歸問題,從而導致獨立特征選擇方案。因此,在每輪加速中,僅僅評估2qMNK個決策柱。但是這種分離忽略了在輸出維數中可能存在的統(tǒng)計學依賴性。
      根據本發(fā)明的另一個實施例,使用遞增特征選擇方案來將q-D回歸問題分離為q個獨立的1D回歸問題。在圖7中概述了遞增的特征選擇方案。通過創(chuàng)建隨機排列{1,2,...,q}、產生{&lt;1&gt;,&lt;2&gt;,...,&lt;q&gt;}來執(zhí)行初始化(步驟702)。接著,執(zhí)行隨著輸出變量的維數i=1,2...,q的迭代。首先,從字典集合中取樣M’個Haar濾波器(步驟704)。形成弱函數的被降低的集合H’(步驟706)。接著,來自訓練集合的N’個數據點被取樣(步驟708)。在濾波器系數m=1,2,...,M’和閾值水平系數k=1,2,...,K上進行循環(huán),以找到h&lt;i&gt;=arg maxh∈H,ε&lt;i&gt;(h)(步驟710)。形成新的向量h&lt;i>=[h&lt;i-1>T,h&lt;i>]T]]>(步驟712)。計算可以再度使用的量tr{D&lt;i&gt;H&lt;i&gt;T}和tr{‖H&lt;i&gt;‖C&lt;i&gt;2}。
      上面的方案使用遞增向量hi(x)i×1=[h1(x),h2(x),...,hi(x)]T=[hi-1(x)T,hi(x)]T,(13)以及遞增矩陣Ci、Di和Hi,Ci=Ci-1Ci-1Ci-1Tci,Di=Di-1diT,Hi=Hi-1hiT---(14)]]>遞增系數被定義為&epsiv;i(h)=tr{DiHiT]/||Hi||Ci2---(15)]]>因此,一次學習一個1D決策柱hi(x)。
      h^i=argmaxh&Element;H&epsiv;i(h)---(16)]]>根據計算,遞增選擇方案需要評估2qMNK個決策柱,這與獨立選擇方案相同。相比于獨立方案,因為必須計算矩陣的量、諸如tr{DiHiT}和‖Hi‖Ci2,所以在遞增方案中需要上述的計算;但是,在獨立特征選擇方案中,對應部分是向量的內積。然而,可再度使用的計算可以被合并。例如,如下所示||Hi||Ci2=||Hi-1||Ci-12+2hiTHi-1Tci-1+cihiThi,]]>tr{DiHiT}=tr{Di-1Hi-1T}+diThi---(17)]]>為了提高穩(wěn)定性和去除偏差,輸出變量的維數的次序是可以隨機改變的。其它先前提及的、提高計算效率的方法包括(i)對字典集合進行隨機取樣,也就是通過較小的M′來替代M;和(ii)對訓練數據集合進行隨機取樣,也就是通過較小的N′來替代N。
      如上面所指出的那樣,本發(fā)明的方法可被用來解決很多不同的問題。圖5通常概述了本發(fā)明的方法。接收查詢圖像,以及回歸函數被應用到圖像查詢,以確定被提供為輸出的實體的存在。
      例如,可以使用本發(fā)明的基于圖像的回歸方法來確定年齡估計。下面將要描述一例子。老化建模(aging modeling)對于面部分析和識別是重要的。這的一個方面是估算人的年齡。使用面部圖像數據庫。利用近似80%的、用于訓練的圖像創(chuàng)建五個隨機部分,而剩余的20%的圖像用于測試。年齡范圍是從0到69歲。通過對準多個標志點并然后執(zhí)行零平均單位方差(zero-mean-unit-variance)操作來完成標準化。
      輸入x是60×60的圖像;輸出y是他/她的標準化年齡。實際年齡被轉換成y=log(y+1),以避免負的回歸器輸出。面部圖像包括所有可能的變化,這些變化包括照明、姿勢、表情、胡須、髭、眼鏡等。圖8示出了一個人在不同年齡時和具有多種外觀變化的樣本圖像。一個圖像集合802在標準化之前被示出,以及另一個集合804示出了被標準化后的圖像。計算絕對的年齡差異作為誤差測量結果。在本實例中,評估500個弱函數,正則化系數λ=0.1,以及收縮因數η=0.5。
      本發(fā)明的另一個應用檢測計算機斷層(CT)圖像中的肺腫瘤。給出輸入CT圖像,復原腫瘤的中心位置(t,s)和各向異性的散布。通過2×2正定矩陣[a11,a12;a12,a22]來描述2D各向異性的散布,其中a11>0,以及a22>0。使用CT圖像的數據庫,這些CT圖像被分成四個隨機部分。近似80%的圖像被指定為訓練圖像,而剩余的20%的圖像被指定為測試圖像。中心位置大致位于圖像中心的6個像素內,但是根據比例尺和定向,各向異性的散布是任意的。
      輸入x是33×33圖像;輸出y在變白后是5-D變量,也就是q=5。為了避免a11和a22的負的輸出值,使用log(a11)和log(a22)。因此,變白濾波器被應用到[t,s,log(a11),a12,log(a22)]T上。圖9示出一些具有標準分割圖像和回歸結果的CT圖像的例子。這些圖像包括典型的外觀變化雜亂的背景、成像噪聲、任意的形狀、偽造的信號等。
      由于每個輸出參數在2D圖像中的橢圓602上被定義,所以使用區(qū)域非重疊比率r來測量性能。給出兩個橢圓A和B,r被定義為r=1-[area(A∩B)/area(A∪B)]。比率越小,兩個橢圓之間就重疊得越多。
      在處理超聲心動圖像(也就是心臟的超聲波2D圖像)時,心肌壁的定位和追蹤是非常困難的任務。特別地,左心室的精確定位對臨床心臟分析是非常重要的。在這個例子中,集中于在頂點的四個心室視圖中定位左心室的心臟內壁。使用超聲波圖像的數據庫,超聲波圖像的數據庫被劃分為五個隨機部分。近似80%的圖像被指定為訓練圖像,而剩余的20%的圖像被指定為測試圖像。
      輸入x是80×74圖像;輸出y是7-D變量,也就是q=7。心臟內壁由17個控制點來參數化的非剛性開放輪廓、也就是具有34個變量。在變白以后,僅僅保持頂部的7個主要部分。依據聲圖儀操作者(sonographer)的成像經驗以及患者的解剖學結構和組織特征,包括心臟頂點、隔膜壁、側壁、乳頭肌、環(huán)帶等的左心室外觀隨患者顯著變化。在超聲波成像中也經常發(fā)現信號遺失。因此,心臟內的邊界有很多變形。圖10示出舉例說明外觀變化的樣本超聲波圖像。針對控制點測量平均像素誤差||(g(x)-y(x)||2/34.]]>已經描述了用于使用加速來執(zhí)行基于圖像的回歸以推斷與圖像相關聯的實體的方法,應注意,按照上面的教導,本領域技術人員可以作出修改或者變化。因此,應理解,可以對落入由隨后的權利要求所定義的本發(fā)明的范圍和精神內的所公開的本發(fā)明的具體實施例進行改變。已經按照專利法的要求對本發(fā)明進行了詳細和具體的描述,在隨后的權利要求中闡述了受專利證書保護的、所要求的和所期望的內容。
      權利要求
      1.一種用于使用加速來執(zhí)行基于圖像的回歸以推斷與對象的圖像相關聯的實體的方法,該方法包括如下步驟學習多個圖像的回歸函數,其中,針對每個圖像,相關聯的實體是已知的;以及使用所學習的回歸函數來預測與圖像相關聯的實體,其中該實體是未知的。
      2.如權利要求1所述的方法,其中,使用加速來學習回歸函數的步驟進一步包括以下步驟使該回歸函數近似為加性函數;在每次迭代該加性函數時,將更多的特征加入到該回歸函數中;通過所迭代的回歸函數,確定所增加的特征是否提高了實體的可預測性;以及選擇那些最大提高所迭代的回歸函數的可預測性的所增加的特征。
      3.如權利要求2所述的方法,其中,所述選擇所增加的特征的步驟進一步包括以下步驟從過完整的(overcomplete)特征集合中選擇那些特征,所述特征最小化對于可得到的數據庫而言告知所述回歸函數的可預測性的費用函數,該費用函數包括L2損耗函數和正則化項;以及以或者貪心、或者遞增、或者獨立的方式在輸出維數上應用特征選擇。
      4.如權利要求2所述的方法,其中,每個特征被表示為Haar濾波器。
      5.如權利要求3所述的方法,其中,所述對象是多維的。
      6.如權利要求5所述的方法,其中,針對特征選擇如下使用決策柱h^i=argmaxh&Element;H&epsiv;i(h)]]>其中&epsiv;i(h)=tr{DiHiT]/||Hi||Ct2;]]>Ci=Ci-1Ci-1Ci-1Tci,]]>Di=Di-1diT,]]>Hi=Hi-1hiT.]]>
      7.如權利要求1所述的方法,其中,使用所學習的回歸函數的步驟進一步包括以下步驟接收對象的圖像,其中相關聯的實體是未知的;在所述回歸器中評估所述特征函數;以及組合所有的特征函數來推斷與所述對象相關聯的實體。
      8.如權利要求7所述的方法,其中,所述對象是人臉,以及被推斷的實體是年齡。
      9.如權利要求7所述的方法,其中,所述對象是解剖學結構,以及所述實體是腫瘤的位置和各向異性的散布。
      10.如權利要求7所述的方法,其中,所述對象是人的心臟,以及所述實體是心臟內壁的位置。
      全文摘要
      公開了一種用于使用加速來執(zhí)行基于圖像的回歸以推斷與對象的圖像相關聯的實體的方法。學習多個圖像的回歸函數,其中,針對每個圖像,相關聯的實體是已知的。使用所學習的回歸函數來預測與圖像相關聯的實體,其中該實體是未知的。
      文檔編號A61B6/00GK1900972SQ20061007741
      公開日2007年1月24日 申請日期2006年3月17日 優(yōu)先權日2005年3月17日
      發(fā)明者S·K·周, B·喬治斯庫, X·周, D·科曼尼丘 申請人:西門子共同研究公司
      網友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1