本發(fā)明涉及相機標定技術領域,尤其涉及的是一種應用智能駕駛的相機和場景關聯(lián)標定方法及系統(tǒng)。
背景技術:
現(xiàn)有技術中基于視覺傳感器的道路場景感知技術被廣泛應用于自動駕駛、半自動駕駛和高級駕駛輔助系統(tǒng)(advanceddriverassistancesystems,adas)中(統(tǒng)稱為智能駕駛),這些視覺傳感器即通常說的車載相機,主要功能是連續(xù)感知汽車周圍特別是前方的可見光圖像信息并發(fā)送到處理器進行場景分析理解,經過相關的決策處理后反饋給用戶或直接介入駕駛系統(tǒng)。
單個車載相機實現(xiàn)了從三維現(xiàn)實世界到二維圖像的映射,即px=u(1);
其中p為投影矩陣形,x和u分別是世界坐標(三維)和圖像坐標(二維)的齊次坐標表達式。公式(1)中的p為3x4的矩陣,即
矩陣p可以進一步分解為相機的內參數(shù)矩陣和外參數(shù)矩陣;
由于p不可逆,導致無法從圖像直接恢復出目標的真實大小以及離相機的位置等對智能駕駛至關重要的信息。
通常做法是通過逼近的辦法解決信息丟失的問題,將p簡化為單映矩陣h:
h為可逆矩陣,實現(xiàn)了從二維到二維的透射投影變換,基于矩陣h可以將三維世界中的平面(例如路面)與圖像平面建立關聯(lián)。
基于單目相機的相機標定主要是根據成像信息估計出單映矩陣h以及h中包含的相機內外參數(shù)信息。常用的方法主要有:1.基于車道線等一些道路中已有的標志點如標線等估計成像平面與道路平面的單映矩陣,同時恢復出相應的相機內參數(shù)和大部分外參數(shù)。2.通過人為放置特定的標定桿、標定板等進行對相機內外參數(shù)進行全面標定,并計算出相機成像畸變情況。
從技術和實施上,上述方式存在一些缺點:
1、標定和計算過程較為繁瑣,需要較多的人為干預;
2、只能得到相機內外參數(shù)等中間結果,需要增加額外的計算才能得到最終的目標-圖像映射關系;
3、難以實現(xiàn)與自動檢測算法結合,并且無法加速檢測算法;
4、無法檢測相機安裝配置的變化。
因此,針對上述缺陷,現(xiàn)有技術還有待于改進和發(fā)展。
技術實現(xiàn)要素:
本發(fā)明要解決的技術問題在于,針對現(xiàn)有技術的上述缺陷,提供一種應用智能駕駛的相機和場景關聯(lián)標定方法及系統(tǒng),旨在通過在車輛上安裝的相機對出現(xiàn)在相機視野中的目標物體進行標定,本發(fā)明汽車相機標定具有簡單、快速、準確、不受環(huán)境限制的優(yōu)點,無論車輛行駛在高速公路,還是城市道路上均可以進行標定,同時,當車停在城市道路上,甚至是停在地下停車庫時,只要有行人出現(xiàn)在相機視野中就可以進行標定。
本發(fā)明解決技術問題所采用的技術方案如下:
一種應用智能駕駛的相機和場景關聯(lián)標定方法,其中,所述方法包括:
步驟a,預先通過設置在車輛擋風玻璃上并調好視角的相機監(jiān)測處于相機視野中的單個或多個目標物體;
步驟b,當所述目標物體在相機視野中走動時通過相機進行成像,檢測器檢測得到目標物體在圖像坐標中的位置和高度信息作為標定數(shù)據;
步驟c,根據所述標定數(shù)據通過離線計算或者在線學習的方式對用于表示目標物體圖像位置和高度關系的標定模型進行更新。
所述的應用智能駕駛的相機和場景關聯(lián)標定方法,其中,所述步驟b具體包括:
步驟b1,自動采集出現(xiàn)在相機視野中包含目標物體的圖像數(shù)據;
步驟b2,通過目標檢測算法檢測出目標物體在圖像中的位置和高度;
步驟b3,建立目標物體的位置和高度的映射關系圖。
所述的應用智能駕駛的相機和場景關聯(lián)標定方法,其中,所述步驟b2具體包括:
步驟b21,選取圖像中的通道特征圖像作為原始輸入圖像進行進一步的特征提取和分類器訓練,用于目標物體的檢測;
步驟b22,選擇迭代算法作為分類框架、決策樹作為弱分類器,通過決策樹進行分類并將所有決策樹判定的分數(shù)之和作為檢測分數(shù)用于篩選目標物體;
步驟b23,通過采用滑動窗口和多尺度的方式對目標物體進行搜索,得到目標物體在圖像中的位置和高度。
所述的應用智能駕駛的相機和場景關聯(lián)標定方法,其中,所述步驟b3具體包括:
建立位置和高度的多項式映射,所述多項式映射反映了平面(x,y)到高度h的映射為:h=f(x,y),其中f為多項式,用于表示平面或高階曲面,(x,y)表示位置,h表示高度;
當目標物體的成像高度在圖像中表現(xiàn)為線性分布時,此時f定義為一個平面函數(shù):f(x,y)=ax+by+c;此時h由線性函數(shù)逼近為:h=ax+by+c;
當h由二階函數(shù)逼近為:h=ax2+by2+cx+dy+e;函數(shù)公式的選擇取決于相機的成像特性;
當標定數(shù)據獲取后,得到一系列的標定點對(x1,y1,h1),(x2,y2,h2),…,(xn,yn,hn),通過所述標定點對利用最小二乘法估計出f(x,y)函數(shù)中的映射系數(shù)。
所述的應用智能駕駛的相機和場景關聯(lián)標定方法,其中,所述離線計算的方式為:收集到一定數(shù)量的標定數(shù)據(x,y,h)收后,利用最小二乘法一次性估計f(x,y)的參數(shù)標定過程;
所述在線學習的方式為:每間隔一定時間,對圖像進行目標檢測,得到標定數(shù)據。
所述的應用智能駕駛的相機和場景關聯(lián)標定方法,其中,在檢測和收集目標物體成像數(shù)據時,同時采用二維熱力學圖來展示目標在畫面中的分布情況。
所述的應用智能駕駛的相機和場景關聯(lián)標定方法,其中,當系統(tǒng)完成標定模型后,采用在二維圖中嵌入形變后的三維立體,用于展示目標在場景中的高度變化以及揭示場景的三維結構。
一種應用智能駕駛的相機和場景關聯(lián)標定系統(tǒng),其中,所述系統(tǒng)包括:
目標檢測模塊,用于預先通過設置在車輛擋風玻璃上并調好視角的相機監(jiān)測處于相機視野中的單個或多個目標物體;
數(shù)據檢測模塊,用于當所述目標物體在相機視野中走動時通過相機進行成像,檢測器檢測得到目標物體在圖像坐標中的位置和高度信息作為標定數(shù)據;
模型更新模塊,用于根據所述標定數(shù)據通過離線計算或者在線學習的方式對用于表示目標物體圖像位置和高度關系的標定模型進行更新。
所述的應用智能駕駛的相機和場景關聯(lián)標定系統(tǒng),其中,所述數(shù)據檢測模塊具體包括:
數(shù)據采集單元,用于自動采集出現(xiàn)在相機視野中包含目標物體的圖像數(shù)據;
算法檢測單元,用于通過目標檢測算法檢測出目標物體在圖像中的位置和高度;
映射建立單元,用于建立目標物體的位置和高度的映射關系圖。
所述的應用智能駕駛的相機和場景關聯(lián)標定系統(tǒng),其中,所述算法檢測單元具體還包括:
訓練檢測單元,用于選取圖像中的通道特征圖像作為原始輸入圖像進行進一步的特征提取和分類器訓練,用于目標物體的檢測;
目標篩選單元,用于選擇迭代算法作為分類框架、決策樹作為弱分類器,通過決策樹進行分類并將所有決策樹判定的分數(shù)之和作為檢測分數(shù)用于篩選目標物體;
目標搜索單元,用于通過采用滑動窗口和多尺度的方式對目標物體進行搜索,得到目標物體在圖像中的位置和高度。
所述的應用智能駕駛的相機和場景關聯(lián)標定系統(tǒng),其中,所述映射建立單元具體包括:
用于建立位置和高度的多項式映射,所述多項式映射反映了平面(x,y)到高度h的映射為:h=f(x,y),其中f為多項式,用于表示平面或高階曲面,(x,y)表示位置,h表示高度;
當目標物體的成像高度在圖像中表現(xiàn)為線性分布時,此時f定義為一個平面函數(shù):f(x,y)=ax+by+c;此時h由線性函數(shù)逼近為:h=ax+by+c;
當h由二階函數(shù)逼近為:h=ax2+by2+cx+dy+e;函數(shù)公式的選擇取決于相機的成像特性;
當標定數(shù)據獲取后,得到一系列的標定點對(x1,y1,h1),(x2,y2,h2),…,(xn,yn,hn),通過所述標定點對利用最小二乘法估計出f(x,y)函數(shù)中的映射系數(shù)。
所述的應用智能駕駛的相機和場景關聯(lián)標定系統(tǒng),其中,所述模型更新模塊中所述離線計算的方式為:收集到一定數(shù)量的標定數(shù)據(x,y,h)收后,利用最小二乘法一次性估計f(x,y)的參數(shù)標定過程;
所述在線學習的方式為:每間隔一定時間,對圖像進行目標檢測,得到標定數(shù)據。
本發(fā)明公開了一種應用智能駕駛的相機和場景關聯(lián)標定方法及系統(tǒng),預先通過設置在車輛擋風玻璃上并調好視角的相機監(jiān)測處于相機視野中的單個或多個目標物體;當所述目標物體在相機視野中走動時通過相機進行成像,檢測器檢測得到目標物體在圖像坐標中的位置和高度信息作為標定數(shù)據;在檢測和收集目標物體成像數(shù)據時,同時采用二維熱力學圖來展示目標在畫面中的分布情況;根據所述標定數(shù)據通過離線計算或者在線學習的方式對用于表示目標物體圖像位置和高度關系的標定模型進行更新;當系統(tǒng)完成標定模型后,采用在二維圖中嵌入形變后的三維立體,用于展示目標在場景中的高度變化以及揭示場景的三維結構。本發(fā)明通過在車輛上安裝的相機對出現(xiàn)在相機視野中的目標物體進行標定,主要是對成像畫面中畫面、目標物的結構分布合理進行標定,本發(fā)明汽車相機標定具有簡單、快速、準確、不受環(huán)境限制的優(yōu)點。
附圖說明
圖1是本發(fā)明應用智能駕駛的相機和場景關聯(lián)標定方法的較佳實施例的流程圖。
圖2是本發(fā)明應用智能駕駛的相機和場景關聯(lián)標定方法中相機安裝示監(jiān)測意圖。
圖3是本發(fā)明應用智能駕駛的相機和場景關聯(lián)標定方法中目標物體位置和高度表示方式的示意圖。
圖4是本發(fā)明應用智能駕駛的相機和場景關聯(lián)標定方法中標定實驗中原始數(shù)據繪制的點云圖。
圖5是本發(fā)明應用智能駕駛的相機和場景關聯(lián)標定方法中標定實驗中利用最小二乘法的曲面圖。
圖6是本發(fā)明應用智能駕駛的相機和場景關聯(lián)標定系統(tǒng)的較佳實施例的功能原理框圖。
具體實施方式
為使本發(fā)明的目的、技術方案及優(yōu)點更加清楚、明確,以下參照附圖并舉實施例對本發(fā)明進一步詳細說明。應當理解,此處所描述的具體實施例僅僅用以解釋本發(fā)明,并不用于限定本發(fā)明。
請參閱圖1,圖1是本發(fā)明應用智能駕駛的相機和場景關聯(lián)標定方法的較佳實施例的流程圖。
如圖1所示,本發(fā)明實施例提供的一種應用智能駕駛的相機和場景關聯(lián)標定方法,包括以下步驟:
步驟s100,預先通過設置在車輛擋風玻璃上并調好視角的相機監(jiān)測處于相機視野中的單個或多個目標物體。
本發(fā)明具體實施時,預先將相機安裝在車輛擋風玻璃上,并調節(jié)好相機視角,用于相機監(jiān)測處于相機視野中的單個或多個目標物體,主要是行動的人,如圖2所示,相機安裝在汽車擋風玻璃上方位置的正前方,便于最大視角的拍攝汽車前方的目標物體的圖像。
步驟s200,當所述目標物體在相機視野中走動時通過相機進行成像,檢測器檢測得到目標物體在圖像坐標中的位置和高度信息作為標定數(shù)據。
本發(fā)明中,具體標定過程為:首先,自動采集出現(xiàn)在相機視野中包含目標物體的圖像數(shù)據。圖2所示標定裝置中,行人在相機視野中走動,相機就能獲取這段時間的標定數(shù)據,這樣進行的標定方法使得標定流程簡單,方便不懂技術的人操作,同時標定不受環(huán)境的影響。
其次,通過目標檢測算法檢測出目標物體在圖像中的位置和高度;對于相機獲得的圖像,本發(fā)明可以通過icf目標檢測算法對其進行了算法改進,檢測出目標(此處以行人為例)在圖像中的位置(x,y)和高度h,其中目標的坐標表示方式如圖3所示。
目標檢測算法檢測出目標物體在圖像中的位置和高度的過程為:
s1,選取圖像中的通道特征圖像作為原始輸入圖像進行進一步的特征提取和分類器訓練,用于目標物體的檢測;通道特征是指對圖像進行某些操作(例如卷積)而得到的結果圖像,通常的做法是自動或手動選取一系列不同的卷積核對輸入圖像進行卷積操作從而得到一系列的特征通道圖像,然后將這些特征通道圖像代表原始輸入圖像進行進一步的特征提取和分類器訓練(例如提取lbp(localbinarypattern,局部二值模式,是一種用來描述圖像局部紋理特征的算子,具有旋轉不變性和灰度不變性等顯著的優(yōu)點)特征進行adaboost(adaboost是一種迭代算法,其核心思想是針對同一個訓練集訓練不同的分類器(弱分類器),然后把這些弱分類器集合起來,構成一個更強的最終分類器(強分類器))訓練)用于分類器的訓練(分類器的訓練獲得分類模型)和目標的檢測。
s2,選擇迭代算法(adaboost)作為分類框架、決策樹(提供一個屬性集合,決策樹通過在屬性集的基礎上作出一系列的決策,將數(shù)據分類)作為弱分類器(分類器的強弱是其分類能力的一種描述,其實就是字面意思,能夠迅速正確的識別的過程就是強分類器,而易錯的則是弱分類器,強分類器可以由多個弱分類器組成),通過決策樹進行分類并將所有決策樹判定的分數(shù)之和作為檢測分數(shù)用于篩選目標物體。
s3,通過采用滑動窗口和多尺度(對輸入圖像提取同樣的通道特征,然后采用與訓練時相同的弱分類器進行目標分類,由于目標的大小不定,并且可能出現(xiàn)在圖像中的任意位置,因此首先對圖像進行多尺度縮放,然后采用滑動窗口方式以一定的步長從這些不同尺度的圖像的左上角遍歷至圖像右下角,在每一個可能的位置和大小提取圖像區(qū)域進行分類決策)的方式對目標物體進行搜索,得到目標物體在圖像中的位置和高度。
最后,建立目標物體的位置和高度的映射關系圖。
假設目標物體真實大小位置與其在圖像中對應的像素大小和位置存在多項式的映射關系,然后根據大量標定物的成像數(shù)據對這種映射關系進行估計,映射關系建立如下:
建立位置和高度的多項式映射,所述多項式映射反映了平面(x,y)到高度h的映射為:h=f(x,y),其中f為多項式,用于表示平面或高階曲面,(x,y)表示位置,h表示高度;
當目標物體的成像高度在圖像中表現(xiàn)為線性分布時,此時f定義為一個平面函數(shù):f(x,y)=ax+by+c;此時h由線性函數(shù)逼近為:h=ax+by+c;
當h由二階函數(shù)逼近為:h=ax2+by2+cx+dy+e;函數(shù)公式的選擇取決于相機的成像特性;
當標定數(shù)據獲取后,得到一系列的標定點對(x1,y1,h1),(x2,y2,h2),…,(xn,yn,hn),通過所述標定點對利用最小二乘法估計出f(x,y)函數(shù)中的映射系數(shù)。
本發(fā)明中,如圖4、圖5所示,給出了在640
在檢測和收集目標物體成像數(shù)據時,同時采用二維熱力學圖來展示目標在畫面中的分布情況。例如:經過一段時間的目標數(shù)據收集時,二維熱力學圖展示目標在畫面中的分布情況:顏色越偏向紅色代表目標在該位置的次數(shù)越多,顏色越偏向藍色則代表目標出現(xiàn)在該位置的次數(shù)越少,為保證采集目標數(shù)據的均勻性,也為提高數(shù)據在后續(xù)建模的效率,用戶和工程人員可以根據實際情況對畫面中目標分布進行調整(在智能駕駛場景中,行駛到目標分布更加均勻的位置,或者在靜止時,讓目標移動至熱力圖中偏藍的位置)。
步驟s300,根據所述標定數(shù)據通過離線計算或者在線學習的方式對用于表示目標物體圖像位置和高度關系的標定模型進行更新。
本發(fā)明中,所述離線計算的方式為:收集到一定數(shù)量的標定數(shù)據(x,y,h)收后,利用最小二乘法一次性估計f(x,y)的參數(shù)標定過程;所述在線學習的方式為:每間隔一定時間,對圖像進行目標檢測,得到標定數(shù)據。
另外,當系統(tǒng)完成標定模型后,采用在二維圖中嵌入形變后的三維立體,用于展示目標在場景中的高度變化以及揭示場景的三維結構。為了更直觀的表示目標在圖像中的高度分布情況,同時更好的揭示場景的三維結構,采用在二維圖中嵌入形變后的三維立體,以展示目標在場景中的高度變化,供用戶、工程人員了解本次標定后畫面結構狀態(tài)。
下面通過本發(fā)明標定方法的進行應用實施舉例:
應用1:加速目標檢測和排除誤報。
建立相機和場景關聯(lián)模型后,可根據公式h=f(x,y)對得到所檢測目標的大小和位置進行檢驗。假設某次檢測得到的目標位置和高度為(x*,y*,h*),則判斷f(x*,y*)與h*之差是否在一定的范圍內,即
∣f(x*,y*)-h*∣﹤σ
判斷是否成立,如果成式,則該檢測有效,否則判斷為無效。其中σ為預設定閾值或者根據歷史樣得學習到得的閾值。通過公式∣f(x*,y*)-h*∣﹤σ可以實現(xiàn)一定程度的誤報排除;另外,給定一個較為寬松的σ值,可以反推得到每個不同坐標(x,y)下所對應的h值范圍,即
f(x,y)-σ﹤h﹤f(x,y)+σ
此時可以在多尺度搜索目標時大大加速搜索過程,帶來的好處是,隨著用戶使用時間的推移,標定數(shù)據越來越多,則對模型參數(shù)和σ的估計將越來越精確,最終帶來的好處是目標檢測系統(tǒng)的運行會越來越流暢。
應用2:相機安裝移位檢測。
當系統(tǒng)運行進入穩(wěn)定狀態(tài)后,利用本發(fā)明提出的標定方法,可以很容易監(jiān)測相機的安裝位置、角度、焦距等是否發(fā)生了較大的變化。具體方式為:每隔一定時間采用全圖搜索的方式對目標物體進行檢測,將全圖檢測的結果輸入公式∣f(x*,y*)-h*∣﹤σ進行判斷。如果發(fā)現(xiàn)在一定的時間段內被拒絕的檢測比例超過一定的值(例如90%),則判斷目標安裝狀態(tài)發(fā)生了變化,此時提示用戶進行干預或者自動重新初始化。
本發(fā)明標定具有不受環(huán)境限制的優(yōu)點,車輛行駛在高速公路、城市道路上均可以進行標定,同時,當車停在城市道路上,甚至是停在地下停車庫時,只要有行人出現(xiàn)在相機視野中就可以進行標定。
基于上述實施例,本發(fā)明還提供一種應用智能駕駛的相機和場景關聯(lián)標定系統(tǒng),請參閱圖6,圖6是本發(fā)明應用智能駕駛的相機和場景關聯(lián)標定系統(tǒng)的較佳實施例的功能原理框圖。
如圖6所示,所述系統(tǒng)包括:
目標檢測模塊10,用于預先通過設置在車輛擋風玻璃上并調好視角的相機監(jiān)測處于相機視野中的單個或多個目標物體;具體如上所述。
數(shù)據檢測模塊20,用于當所述目標物體在相機視野中走動時通過相機進行成像,檢測器檢測得到目標物體在圖像坐標中的位置和高度信息作為標定數(shù)據;具體如上所述。
模型更新模塊30,用于根據所述標定數(shù)據通過離線計算或者在線學習的方式對用于表示目標物體圖像位置和高度關系的標定模型進行更新;具體如上所述。
進一步地,所述的應用智能駕駛的相機和場景關聯(lián)標定系統(tǒng),其中,所述數(shù)據檢測模塊具體包括:
數(shù)據采集單元,用于自動采集出現(xiàn)在相機視野中包含目標物體的圖像數(shù)據;具體如上所述。
算法檢測單元,用于通過目標檢測算法檢測出目標物體在圖像中的位置和高度;具體如上所述。
映射建立單元,用于建立目標物體的位置和高度的映射關系圖;具體如上所述。
進一步地,所述的應用智能駕駛的相機和場景關聯(lián)標定系統(tǒng),其中,所述算法檢測單元具體還包括:
訓練檢測單元,用于選取圖像中的通道特征圖像作為原始輸入圖像進行進一步的特征提取和分類器訓練,用于目標物體的檢測;具體如上所述。
目標篩選單元,用于選擇迭代算法作為分類框架、決策樹作為弱分類器,通過決策樹進行分類并將所有決策樹判定的分數(shù)之和作為檢測分數(shù)用于篩選目標物體;具體如上所述。
目標搜索單元,用于通過采用滑動窗口和多尺度的方式對目標物體進行搜索,得到目標物體在圖像中的位置和高度;具體如上所述。
進一步地,所述的應用智能駕駛的相機和場景關聯(lián)標定系統(tǒng),其中,所述映射建立單元具體包括:
用于建立位置和高度的多項式映射,所述多項式映射反映了平面(x,y)到高度h的映射為:h=f(x,y),其中f為多項式,用于表示平面或高階曲面,(x,y)表示位置,h表示高度;
當目標物體的成像高度在圖像中表現(xiàn)為線性分布時,此時f定義為一個平面函數(shù):f(x,y)=ax+by+c;此時h由線性函數(shù)逼近為:h=ax+by+c;
當h由二階函數(shù)逼近為:h=ax2+by2+cx+dy+e;函數(shù)公式的選擇取決于相機的成像特性;
當標定數(shù)據獲取后,得到一系列的標定點對(x1,y1,h1),(x2,y2,h2),…,(xn,yn,hn),通過所述標定點對利用最小二乘法估計出f(x,y)函數(shù)中的映射系數(shù);具體如上所述。
進一步地,所述的應用智能駕駛的相機和場景關聯(lián)標定系統(tǒng),其中,所述模型更新模塊中所述離線計算的方式為:收集到一定數(shù)量的標定數(shù)據(x,y,h)收后,利用最小二乘法一次性估計f(x,y)的參數(shù)標定過程;
所述在線學習的方式為:每間隔一定時間,對圖像進行目標檢測,得到標定數(shù)據;具體如上所述。
綜上所述,本發(fā)明公開了一種應用智能駕駛的相機和場景關聯(lián)標定方法及系統(tǒng),預先通過設置在車輛擋風玻璃上并調好視角的相機監(jiān)測處于相機視野中的單個或多個目標物體;當所述目標物體在相機視野中走動時通過相機進行成像,檢測器檢測得到目標物體在圖像坐標中的位置和高度信息作為標定數(shù)據;在檢測和收集目標物體成像數(shù)據時,同時采用二維熱力學圖來展示目標在畫面中的分布情況;根據所述標定數(shù)據通過離線計算或者在線學習的方式對用于表示目標物體圖像位置和高度關系的標定模型進行更新;當系統(tǒng)完成標定模型后,采用在二維圖中嵌入形變后的三維立體,用于展示目標在場景中的高度變化以及揭示場景的三維結構。本發(fā)明通過在車輛上安裝的相機對出現(xiàn)在相機視野中的目標物體進行標定,主要是對成像畫面中畫面、目標物的結構分布合理進行標定,本發(fā)明汽車相機標定具有簡單、快速、準確、不受環(huán)境限制的優(yōu)點。
當然,本領域普通技術人員可以理解實現(xiàn)上述實施例方法中的全部或部分流程,是可以通過計算機程序來指令相關硬件(如處理器,控制器等)來完成,所述的程序可存儲于一計算機可讀取的存儲介質中,該程序在執(zhí)行時可包括如上述各方法實施例的流程。其中所述的存儲介質可為存儲器、磁碟、光盤等。
應當理解的是,本發(fā)明的應用不限于上述的舉例,對本領域普通技術人員來說,可以根據上述說明加以改進或變換,所有這些改進和變換都應屬于本發(fā)明所附權利要求的保護范圍。