国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種用電信息采集系統(tǒng)遠程信道報文壓縮方法及系統(tǒng)的制作方法

      文檔序號:9790720閱讀:1274來源:國知局
      一種用電信息采集系統(tǒng)遠程信道報文壓縮方法及系統(tǒng)的制作方法
      【技術領域】
      [0001]本發(fā)明涉及一種用電信息采集系統(tǒng)遠程信道報文壓縮領域,屬于電力系統(tǒng)中報文數據無損壓縮技術領域。
      【背景技術】
      [0002]主站系統(tǒng)與集中器之間通信是用電信息采集系統(tǒng)中一個重要組成部分,其通信下行報文可以是主站對集中器請求各類數據,查詢參數,控制命令等。其最常見的上行報文一般是響應召測的各種實時數據以及歷史(凍結,曲線)數據。當上行報文數據較大時,報文會分成多幀傳輸,而每幀遵循GW376.1通信協(xié)議,各幀之間有相同的數據結構,故存在一定冗余信息。另一方面,電力系統(tǒng)售電環(huán)節(jié)的調度系統(tǒng),營銷系統(tǒng)等各類應用越來越依靠用電信息采集系統(tǒng)數據的及時獲取,故主站采集數據時必須在一定程度上保證數據的實時性,以便營銷系統(tǒng)對采集數據進行分析并作出相應處理。故對遠程信道報文壓縮后再傳輸是十分有必要。
      [0003]目前,實際應用的用電信息采集系統(tǒng)遠程信道一般采用GPRS信道或230M無線專網信道,其通信方式存在諸多不足之處。低壓居民集中抄表是用電信息采集典型的應用,且用電信息采集數據種類繁多,當集中器采集幾百戶電能表時。通信量非常大,數據傳輸到主站要耗費大量時間。電網部門不僅需要支付很高運行費用,而且通信速率較低,傳輸時延較大,數據實時性有時不能保證。不適應用電信息采集系統(tǒng)中對報文傳輸過程中高效,可靠,安全等方面要求。

      【發(fā)明內容】

      [0004]為了滿足用電信息采集系統(tǒng)對遠程通信報文實時分析和高效傳輸的業(yè)務要求。報文壓縮技術應具備高壓縮比,算法復雜度低,占用內存小等特點。鑒于此,本發(fā)明的目的是提供一種用于用電信息采集系統(tǒng)中遠程信道通信報文高壓縮比的壓縮方法,在在本發(fā)明只需要在報文傳輸進行壓縮預處理就可以大幅降低通信量,降低對通信信道所需帶寬要求。
      [0005]在該方法中,根據已壓縮數據逐步建立起基于多階上下文的字符集概率分布模型,并隨著壓縮過程的進行以一定的方式自適應的更新該模型,即學習機制。通過準確的建模預測符號概率,再經算術編碼模塊壓縮后再輸出。預測模型預測得越準確,壓縮效果就越逼近數據信息熵。
      [0006]本發(fā)明采用的技術方案如下:一種用電信息采集系統(tǒng)遠程信道報文壓縮方法,包括主站下發(fā)集中器命令,集中器響應主站命令并生成上行報文,集中器對上行報文進行壓縮,然后傳輸到主站,主站接收到被壓縮的上行報文后,進行解壓縮過程,同理,由主站到集中器下行報文傳輸過程為其逆過程。其中所述對上行報文進行壓縮的步驟如下:
      [0007]根據上行報文中各階上下文的分布特性進行在線建模,建立起基于多階上下文的字符集概率分布模型;根據字符集概率分布模型中已建立好的上下文信息預測下一個到達字符的符號概率,編碼該符號概率并輸出;同時根據已編碼字符更新各階上下文的分布特性,自適應的更新字符集概率分布模型。
      [0008]具體地,所述字符集概率分布模型是一種多層上下文相關的概率模型,對于報文中將要編碼的某一字符,利用已編碼的字符串逐步構建的上下文樹的概要信息得到該字符在各階上下文中預測頻率,從而得到該字符的累積概率。
      [0009]為了更好地實施本發(fā)明,所述預測概率的計算方式如下:針對某一待編碼字符,在當前長上下文中尋找是否出現與待編碼字符相同的字符,如有則輸出該字符的累積頻率和上一字符的累積頻率;若沒有出與待編碼字符相同的字符,則輸出一個逃逸字符,且退回到下一較短上下文,直到第O階上下文,即待編碼字符本身,給待編碼字符分配概率為待編碼字符出現的次數與已經讀入符號的個數之比;若待編碼字符之前從未出現過,則為-1階上下文,給待編碼字符分配固定概率為1/256。
      [0010]在上述過程中所述在長上下文中尋找是否出現與待編碼字符相同的字符過程中,當由高階上下文轉向低階上下文時,高階上下文中出現過的該字符便不再退到低階上下文尋找。
      [0011 ]所述編碼符號概率采用自適應的算術編碼,即根據當前字符的符號概率分布,和上一字符的符號概率分布編碼所述當前待字符。
      [0012]本發(fā)明還提供了一種用電信息采集系統(tǒng)遠程信道報文壓縮系統(tǒng),包括主站和集中器,主站下發(fā)集中器命令,集中器響應主站命令并生成上行報文,在此過程中所述集中器對上行報文進行壓縮,然后傳輸到主站,主站接收到被壓縮的上行報文后,進行解壓縮;同理,由主站到集中器下行報文傳輸過程為其逆過程。其中所述對上行報文進行壓縮由以下模塊實現:
      [0013]字符集概率分布模型,根據上行報文中各階上下文的分布特性進行在線建模,建立起基于多階上下文的字符集概率分布模型;算術編碼模塊,根據字符集概率分布模型中已建立好的上下文信息預測下一個到達字符的符號概率,編碼該符號概率并輸出;學習模塊,根據已編碼字符更新各階上下文的分布特性,自適應的更新字符集概率分布模型。
      [0014]本發(fā)明的優(yōu)勢之處在于以下幾點:
      [0015]1.通過對報文數據上下文建模能自適應的學習各階上下文中字符的統(tǒng)計信息,從而較準確地預測下一字符概率,最大程度上用較少的比特表示出現概率較高的字符,用較多的比特表示出現概率較低的字符,從而提高壓縮比,其壓縮效果高于一般的LZ系列的壓縮算法。
      [0016]2.用電信息采集系統(tǒng)遠程信道報文數據都是遵循376.1的幀格式,幀與幀之間有相同的格式,存在著一些的冗余信息。且在各種電能質量或電能量曲線數據中相鄰采樣點數據之間有較強相關性。例如,電能質量數據在不同的時刻也存在著相同的后綴。這種特性剛好符合上下文相關模型,因此應用該方法可以取得較好的壓縮效果。
      [0017]3.適用算術編碼作為最后的輸出編碼,而算術編碼是接近于信息熵的編碼。
      [0018]4.在存儲上下文方面采用三叉樹的數據結構,減少了查找和更新上下文所需的算法步驟,降低了算法的復雜度。
      [0019]5.本方法在實施過程中,只需在集中器和主站系統(tǒng)方面接受數據前端嵌入壓縮/解壓縮模塊,只需軟件上的升級,而無需硬件上的改進,故可以進行在線升級,實施成本較低,易于實現。
      [0020]6.本方法實現復雜度低,壓縮、解壓縮耗時短,在一定程度上保證了數據傳輸的實時性。
      【附圖說明】
      [0021 ]圖1為本發(fā)明壓縮/解壓縮模塊結構示意圖;
      [0022]圖2為原用電信息采集系統(tǒng)示意圖;
      [0023]圖3為本發(fā)明在用電信息采集系統(tǒng)中應用場景示意圖;
      [0024]圖4壓縮算法具體實現流程示意圖。
      【具體實施方式】
      [0025]為了使本發(fā)明的目的,技術方案及優(yōu)點更加清楚明白,以下結合附圖及實施例,對發(fā)明進行進一步的詳細說明。
      [0026]實施例一,本發(fā)明提供了一種用于用電信息采集系統(tǒng)主站與集中器之間的通信報文壓縮系統(tǒng),如圖1所示。
      [0027]概率模型:在本方法中使用一種多層上下文相關的概率模型,其主要有以下特點,對于報文中將要編碼的某一待編碼字符,利用已編碼的字符串逐步構建的上下文樹的概要信息得到待編碼字符在各階上下文中累積頻率。有兩種機制計算該字符的預測概率。
      [0028]第一種是后退機制,即在當前長上下文中尋找是否出現該待編碼字符,如有則輸出該待編碼字符的累積頻率和上一字符的累積頻率。若沒有出現,則輸出一個逃逸字符,且退回到下一較短上下文。直到第O階上下文,即該待編碼字符本身,給它分配概率為該符號出現的次數與已經讀入符號的個數之比。若該待編碼字符之前從未出現過,則模型轉為-1階上下文,給它分配固定概率為1/256。因為十六進制報文數據字符集個數256。第二種是混合機制,將每個上下文中該字符的預測概率。按一定的權值加權求和。其權值是該符號在當前上下文出現次數的函數。這里采用第一種方法。另外在概率模型后退機制中使用一種排除法,當上下文由高階轉向較低階上下文時,高階上下文中出現過的字符在低階上下文中被排除掉,因為若高階上下文中出現該字符,則不會后退到低階上下文。這樣可以增大低階上下
      當前第1頁1 2 
      網友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1