一種高速存儲的數據庫一體的制造方法
【專利摘要】一種高速存儲的數據庫一體機,其特征在于:包括計算集群、Infiniband網絡集群和Fusion-io分布式存儲,其中,所述計算集群包括多個用于計算的計算服務器,所述多個計算服務器組成計算集群,所述Infiniband網絡集群包括多個用于數據交換的Infiniband交換機,所述Fusion-io分布式存儲包括多個Fusion-io存儲服務器。將Fusion-io的閃存產品引入數據庫機一體機存儲體系,有效解決了數據庫機一體機I/O瓶頸問題,對提升存儲IOPS、吞吐量等性能指標帶來了指數級提升,本發(fā)明適合于高并發(fā),高吞吐量等要求極高的數據庫應用場景。
【專利說明】一種高速存儲的數據庫一體機
【技術領域】
[0001]本申請涉及一種數據庫一體機,具體的涉及,一種采用Fusion ioMemory的高速存儲的數據庫一體機。
【背景技術】
[0002]近幾十年來,計算機系統(tǒng)在I/O性能與CPU處理性能方面出現嚴重不對稱局面,而且隨著CPU技術的飛速發(fā)展,這種差距還會越來越大。與此同時,社交網絡、物聯網、移動互聯網等多種新型應用的出現,以及高性能計算更加精細的處理需求,致使數據處理規(guī)模呈現爆炸式增長。頻繁的I/o請求已經嚴重制約了計算機系統(tǒng)的處理能力,因此I/O處理能力已經成為計算機系統(tǒng)中迫切需要解決的問題。
[0003]傳統(tǒng)磁盤存儲系統(tǒng)為此作出了諸多努力。磁盤系統(tǒng)通過RAID技術發(fā)揮多磁盤的并行存取,I/o請求被分發(fā)到多個磁盤設備上,通過多設備的并行工作提供聚合帶寬。在設備內部,磁盤系統(tǒng)通過數據分布以及I/o調度等多種手段來順序化訪問數據,減少了尋道時間,以此提高了磁盤的吞吐率。
[0004]盡管磁盤存儲系統(tǒng)有效提升了帶寬,但訪問延遲問題卻難以得到有效解決,依然不能滿足延遲要求較高的應用。同時,由于需要提供多磁盤設備的并行訪問的性能,存儲系統(tǒng)往往部署了遠多于實際容量需求的磁盤數量,系統(tǒng)規(guī)模也隨之擴大。系統(tǒng)規(guī)模的擴大一方面提高了系統(tǒng)的復雜性,另一方面也提升了能耗。
[0005]傳統(tǒng)的數據庫技術,數據由磁盤讀入內存進行查詢、對比或修改等操作。隨著企業(yè)生產數據的不斷增長,大量數據需要從外存讀取到服務器內存,這已經成為制約系統(tǒng)性能的瓶頸。另一方面,企業(yè)數據管理中心搭建數據業(yè)務處理平臺的過程也是相當復雜,需要將操作系統(tǒng)、數據庫管理軟件、存儲硬件以及網絡等組件整合在一起,來滿足用戶持續(xù)的高可用業(yè)務支持。將數據庫、存儲和服務器集成在一起不僅能夠為企業(yè)提供便捷安裝、易于維護的業(yè)務運營平臺,還能以一種優(yōu)化的方式協(xié)調資源分配、實現均衡負載、降低應用的復雜性、提高數據管理的性能。數據庫一體機的出現為解決上述問題提供了一個理想方案。早期的數據庫一體機可以很好地保證數據庫系統(tǒng)和操作系統(tǒng)的可靠性,但磁盤低速的I/o性能使得數據庫一體機技術沒有得到推廣和應用。
[0006]因此,如何能夠提高數據庫的性能,解決磁盤低速的I/O性能對數據庫一體機帶來的影響,并進一步的制造高速存儲的數據庫一體機成為現有技術亟需解決的技術問題。
【發(fā)明內容】
[0007]本發(fā)明的目的在于提出一種高速存儲的數據庫一體機,能夠解決磁盤低速的I/O性能對數據庫一體機帶來的影響,并得到一種高速存儲的數據庫一體機。
[0008]為達此目的,本發(fā)明采用以下技術方案:
一種高速存儲的數據庫一體機,其特征在于:包括計算集群、Infiniband網絡集群和Fusion-1o分布式存儲,其中,所述計算集群包括多個用于計算的計算服務器,所述多個計算服務器組成計算集群,所述Infiniband網絡集群包括多個用于數據交換的Infiniband交換機,所述Fusion-1o分布式存儲包括多個Fusion-1o存儲服務器。
[0009]優(yōu)選地,所述計算集群包括至少兩個計算服務器。
[0010]優(yōu)選地,所述計算服務器安裝有集群軟件、數據庫客戶端和獨立的操作系統(tǒng)。
[0011]優(yōu)選地,所述Infiniband網絡集群包括多個支持RDMA協(xié)議的Infiniband交換機。
[0012]優(yōu)選地,所述Infiniband交換機為支持IPoIB的交換機或支持RDS的交換機。
[0013]優(yōu)選地,所述Infiniband為支持RDS的交換機。
[0014]優(yōu)選地,所述Fusion-1o分布式存儲為外部冗余配置、一般冗余配置或者最高冗余配置;所述外部冗余配置為:FUSi0n-10存儲卡的空間整合為一個統(tǒng)一的磁盤組,不提供任何數據冗余;所述一般冗余配置為:兩塊Fusion-1o存儲卡之間做鏡像,提供1:1的冗余;所述最高冗余配置為:將三塊Fusion-1o存儲卡之間做鏡像,提供1:1:1的冗余。
[0015]優(yōu)選地,所述Fusion-1o分布式存儲為一般冗余配置。
[0016]優(yōu)選地,所述Fusion-1o分布式存儲中的數據存放采用以下存儲方式中的一種:將所有文件都保存在Fusion-1o存儲服務器的Fusion-1o存儲卡上,將臨時表空間文件保存在所述Fusion-1o存儲卡上,將重做日志保存在所述Fusion-1o存儲卡上,將熱點數據保存在Fusion-1o存儲卡上,或者將Fusion-1o存儲卡作為f Iashcache緩存。
[0017]優(yōu)選地,當Fusion-1o分布式存儲的存儲空間可以滿足需要時,將所有文件都保存在Fusion-1o存儲卡上,當Fusion-1o分布式存儲的存儲空間不能滿足且熱點數據明確時,將熱點數據保存在Fusion-1o存儲卡上。
[0018]本發(fā)明具有如下的優(yōu)點:
O至少提高了 3至10倍的數據庫性能。
[0019]2)可在數分鐘內(而不是以小時計算)運行備份、恢復及批量作業(yè)。
[0020]3)有效解決了性能問題,無需再三地對性能進行評估和購買磁盤。
[0021]4)通過減少故障點數量提升系統(tǒng)的可靠性。
[0022]5)以對1/0有較大影響的技術如鏡像和復制技術來進行未用功能的實施,以提升
可用性。
[0023]6)大幅減小橫向擴展數據庫架構的規(guī)模。
[0024]本發(fā)明的高速存儲的數據庫一體機,基于fusion-1o高速存儲技術,對提升存儲10PS、吞吐量等性能指標帶來了指數級提升,本發(fā)明尤其適合高并發(fā),高吞吐量等要求極高的數據庫應用場景。
【專利附圖】
【附圖說明】
[0025]圖1是根據本發(fā)明具體實施例的高速存儲的數據庫一體機的結構框圖;
圖2是根據本發(fā)明具體實施例的計算集群工作原理圖;
圖3是根據本發(fā)明具體實施例的fusion-1o分布式存儲的數據冗余布置圖;
圖4是根據本發(fā)明的高速存儲的數據庫一體機的工作流程圖;
圖5是根據本發(fā)明的實施例二的IOPS與延時圖;
圖6是根據本發(fā)明的實施例二的吞吐量圖。[0026]圖中的附圖標記所分別指代的技術特征為:
1、計算集群;11、計算服務器;2、Infiniband集群網絡;21、Infiniband交換機;3、Fusion-1o分布式存儲;31、Fusion-1o存儲服務器;32、Fusion-1o存儲卡;4、應用服務器。
【具體實施方式】
[0027]下面結合附圖和實施例對本發(fā)明作進一步的詳細說明??梢岳斫獾氖牵颂幩枋龅木唧w實施例僅僅用于解釋本發(fā)明,而非對本發(fā)明的限定。另外還需要說明的是,為了便于描述,附圖中僅示出了與本發(fā)明相關的部分而非全部結構。
[0028]誕生于20世紀80年代末的閃存存儲器(Flash Memory)為解決這一問題提供了有效途徑。閃存是一種全電設備,通過電子電路來讀取數據,具有非易失、極高的讀寫速度、抗震、低功耗、體積小等特性,目前已經廣泛應用于嵌入式系統(tǒng)、航空航天、消費電子等領域。閃存的讀寫速度超過磁盤百倍以上,隨著制作工藝的發(fā)展,閃存的容量在不斷增大,應用領域也開始逐步擴展到高吞吐、數據訪問密集的企業(yè)級應用環(huán)境。
[0029]Fusion ioMemory是一種基于閃存的NAND存儲層,可恢復資源(包括DRAM、CPU、網絡帶寬和磁盤存儲)的平衡和效率。它為數據庫服務器提供了較好的讀取性能以及企業(yè)級可靠性,同時降低了基礎設施的需求。
[0030]將Fusion-1o為代表的閃存產品引入數據庫機一體機存儲體系,有效解決了數據庫機一體機I/o瓶頸問題。該存儲架構可以采用智能緩存技術將經常訪問的熱數據透明的緩存在閃存和內存中,而活動性低的數據則被保留在低成本的磁盤。
[0031]參見圖1,公開了根據本發(fā)明具體實施例的高速存儲的數據庫一體機的結構框圖。
[0032]—種高速存儲的數據庫一體機,其特征在于:包括計算集群1、Infiniband網絡集群2和Fusion-1o分布式存儲3,其中,所述計算集群I包括多個用于計算的計算服務器11,所述多個計算服務器組成計算集群,所述Infiniband網絡集群2包括多個用于數據交換的Infiniband交換機21,所述Fusion-1o分布式存儲3包括多個Fusion-1o存儲服務器31。
[0033]對于計算集群1:
具體而言,包括多個計算服務器11的節(jié)點。每個計算服務器上都具有集群軟件、數據庫客戶端和獨立的操作系統(tǒng),在Fusion-1o分布式存儲3存放了數據文件、控制文件、聯機日志文件、歸檔日志文件等。
[0034]例如,一個Oracle Rac數據庫由多個計算服務器節(jié)點組成,每個計算服務器節(jié)點上都有自己獨立的OS、ClusterWare、oracle Rac數據庫程序等,并且每個節(jié)點都有自己的網絡監(jiān)聽器。ClusterWare是一個集群軟件,主要用于集群系統(tǒng)管理,oracle Rac數據庫程序用于提供oracle實例進程,以供客戶端訪問集群系統(tǒng),監(jiān)聽服務主要用于監(jiān)控自己的網絡端口信息,所有的服務和程序通過操作系統(tǒng)都去訪問一個共享存儲,最終完成數據的讀與。
[0035]在一個具體的實施例,所述計算集群I包括至少兩個計算服務器11。參見圖2,所有的計算服務器使用和管理同一個數據庫,目的是為了分散每一臺計算服務器的工作負載,硬件上至少需要兩臺以上的計算服務器。在網絡帶寬和I/o設備沒有達到瓶頸時,兩個節(jié)點能夠提供兩倍的CPU處理能力和兩倍的內存容量,極大的提高了整個系統(tǒng)的事務處理的速度。從圖中可以看出,運行在兩個節(jié)點上的數據庫實例(即數據庫客戶端)訪問同一個RAC數據庫,并且兩個節(jié)點的本地磁盤僅用來存放oracle安裝程序和ClusterWare (集群軟件)軟件,而在Fusion-1o存儲服務器的共享存儲上,存放了 oracle的數據文件、控制文件、聯機日志文件、歸檔日志文件等。
[0036]邏輯結構上看,每一個參加計算集群的計算服務器節(jié)點有一個獨立的instance(數據庫實例),這些instance訪問同一個數據庫。節(jié)點之間通過集群軟件的通訊層(communication layer)來進行通訊。同時為了減少IO的消耗,存在了一個全局緩存服務,因此每一個數據庫的instance,都保留了一份相同的數據庫cache。
[0037]對于Infiniband網絡集群2:
具體而言,所述Infiniband網絡集群2包括多個Infiniband交換機21,還配置有RDMA適配器,也就是說,包括多個支持RDMA協(xié)議的Infiniband交換機,以及配套的軟件。通過上述配置,Infiniband網絡集群可以實現遠程內存直接訪問(RDMA remote direct memoryaccess architecture)。Infiniband網絡集群2是一個高速互聯,常與高性能計算(HPC)環(huán)境聯系在一起。RDMA可以在集群的節(jié)點間使用并行、直接、內存到內存的傳輸。
[0038]例如:0racle數據庫服務器和Fusion-1o存儲服務器使用了 Infiniband網絡集群2,為集群內的通訊提供高達40Gb/s的帶寬。與千兆以太網相比InfiniBand可在原始帶寬及更短延遲兩個方面提供巨大優(yōu)勢,并且一般可提供比用于Oracle RAC系統(tǒng)的千兆以太網更高的性能。
[0039]所述Infiniband交換機為支持IPoIB的(IP over Infiniband)交換機或支持RDS的交換機。
[0040]所述支持IPoIB的交換機采用IB架構作為鏈路控制層,使用封裝的方法實現IP和IB報文的轉換,從而使在以太網運行的程序可以直接運行在Infiniband上。
[0041]所述支持RDS 的交換機使用基于 Infiniband 的 Reliable Datagram Sockets,oracle 10.2.0.3 開始支持這個方法。RDS 可以通過 Open Fabric EnterpriseDistribution(OFED)在linux和windows上實現。RDS的重要特征是低延遲、低開銷和高帶寬。
[0042]傳統(tǒng)的RAC內部互聯協(xié)議都是使用UDP協(xié)議,這樣無論內部互聯網絡是用普通網絡交換機還是Infiniband交換機,都需要先把UDP協(xié)議轉換成IP協(xié)議才能通過網絡傳輸,如果使用Infiniband交換機的話,那么還需要把IP協(xié)議轉換成為IPoIB協(xié)議(IP overInfiniband),這樣幾經轉換,內部互聯傳輸顯然效率不高。而使用RDS內部互聯的話,那么,Oracle RAC數據庫內核可以直接通過RDS協(xié)議傳輸信息,少了幾層轉換,性能會有質的提升。
[0043]Oracle 數據庫 IOg 版本 2 (R2)及 10.2.0.3 補丁集支持由 Oracle 和 QLogic專門針對稱為 Reliable DatagramSockets (RDS)Over InfiniBand 的 Oracle RAC 開發(fā)的群集互連協(xié)議,RDS與具有基本遠程直接內存存取(RDMA)功能的設備無關,并且可簡化實施。該協(xié)議可徹底檢查具有RDMA功能的以太網網卡(NIC)或InfiniBand主機通道適配器(HCA) ο
[0044]由此,所述Infiniband交換機優(yōu)選采用支持RDS的交換機。
[0045]Infiniband交換集群2還提供集群節(jié)點與存儲服務器之間傳輸磁盤數據使用;這些連接對延遲及每秒可用1/0敏感。[0046]InfiniBand應用于服務器群和存儲區(qū)網絡(SAN),在這種環(huán)境中性能問題至關重要。該種結構可以基于信道的串口替代共用總線,從而使I/O子系統(tǒng)和CPU/內存分離。所有系統(tǒng)和設備(一般稱作節(jié)點)可通過信道適配器邏輯連接到該結構,它們可以是主機(服務器)適配器(HCA)或目標適配器(TCA)。該種結構(包括InfiniBand交換機和路由器)還可輕松實現擴展,從而滿足不斷增長的需求。
[0047]InfiniBand SAN具有如下優(yōu)勢:(I) InfiniBand體系結構經過特別設計,支持安全的信息傳遞模式、多并行通道、智能I/O控制器、高速交換機以及高可靠性、可用性和可維護性。(2) InfiniBand體系結構具有性能可伸縮性,和較廣泛的適用性。
[0048]對于fusion-1o分布式存儲3:
Fusion-1o是基于NAND Flash技術的存儲設備,底層存儲技術與SSD相同,不同的是,Fusion-1o采用PC1-E接口,SSD采用SATA接口。相比較SSD,Fusion_io省略了南橋芯片,RAID控制器等訪問路徑,所以Fusion-1o又稱為10 Memory,意思就是可以象內存一樣訪問,因此,Fusion-1o的性能比SSD要好很多。
[0049]fusion-1o分布式存儲3需要考慮兩個方面的方案以優(yōu)化性能:1.數據冗余方案'2.數據存放方案。
[0050]對于數據冗余方案:Fusion-1o采用PC1-E接口,無法使用硬件RAID,我們可以使用OS LVM或者ORACLE ASM實現軟RAID的功能。
[0051]fusion-1o分布式存儲3可以使用例如oracle ASM來實現數據冗余,fusion-1o存儲服務器31包括多塊ioDrive,Fusion-1o存儲卡32,其包括3種配置方式,
其中,第一種方式是External Redundancy (外部冗余配置),參見圖3 (a),這個方案相當于RAID0,只是將多塊ioDrive (Fusion-1o存儲卡32)的空間整合為一個統(tǒng)一的DG (磁盤組),不提供任何數據冗余;第二種方式是Normal Redundancy ( 一般冗余配置),將兩塊ioDrive之間做鏡像,提供1:1的冗余,參見圖3 (b),這個方案相當于RAID10,同時提供了數據冗余與條帶,是可靠性比較高的方案。例如,可以通過ASM failgroup的功能,將兩塊ioDrive之間做鏡像,以防止單塊卡出現故障;第三種方式是High Redundancy (最高冗余配置),參見圖3 (c)將三塊ioDrive之間做鏡像,提供1:1:1的冗余。這個方案相當于RAID10+1,數據被冗余了三份,進一步提高了可靠性。
[0052]其中,1Driver Duo表示其中一塊物理的fusion-1o存儲卡的名稱;在fusion-1o存儲卡上分別具有fioa—fiof,表示從存儲卡上劃分出的多個邏輯卷(LV)通過Inf iniband存儲網絡映射到計算服務器節(jié)點的磁盤的名稱。
[0053]綜合考慮,付出的代價和數據冗余的需要,本發(fā)明優(yōu)選一般冗余配置。
[0054]對于數據存放方案,包括五種方案,分別為:1.將所有文件都保存在ioDrive上,
2.將temp (臨時表空間文件)文件保存在ioDrive上,3.將redo (重做日志)保存在ioDrive上,4.將熱點數據(極短的時間內被頻繁訪問的數據)保存在ioDrive上,5.1oDrive作為f Iashcache (緩存)。fusion-1o分布式存儲3選取其中的一種。
[0055]具體而言:
1.將所有文件都保存在ioDrive上:
如果存儲空間許可,這是最簡單可靠,也是性能最好的一種方案。
[0056]2.將temp(臨時表空間文件)文件保存在ioDrive上:針對一些DSS系統(tǒng)(決策支持系統(tǒng)),temp文件可能是性能的瓶頸,比如大量的sort,Hash join可能耗費大量的temp空間,將temp文件放在ioDrive上可能帶來性能上的收益。不過,我很少見到類似的需求,這個方案應該很少使用。
[0057]3.將redo (重做日志)保存在ioDrive上:
對于ORACLE數據庫,redo log必須同步串行(9i串行,IOg以后可以并行),對于write-1ntensive系統(tǒng),要求redo必須有很低的寫入延遲,否則redo可能成為整個系統(tǒng)的瓶頸。所以,可以考慮將redo log放在ioDrive上,提高響應延遲。但是,并不建議這個方案,因為redo log的寫入是一種小IO的順序寫入,順序寫入更適合磁盤,并不適合flash存儲。如果磁盤可以滿足響應延遲需求,建議將redo log放在磁盤上,而不是ioDrive上。
[0058]4.將熱點數據(極短的時間內被頻繁訪問的數據)保存在ioDrive上:
如果整個系統(tǒng)無法全部放在ioDrive上,而用戶可以識別出系統(tǒng)的熱點數據,那么可
以人工將熱點數據放在ioDrive上,將其他數據放在磁盤存儲上,從而獲得比較好的性能。
[0059]5.1oDrive 作為 f Iashcache (緩存):
將ioDrive作為數據庫內存和磁盤之間的cache, Flashcache是用戶透明的一種解決方案,系統(tǒng)自動將熱點數據加載在flashcache中,提升系統(tǒng)性能。ORACLE Ilg R2提供了fIashcache功能,當block從SGA中被換出時,會被寫入到flashcache中,但是在ORACLE的 flashcache 方案中,只有 clean block 才會被寫入到 flashcache 中,Dirty block (臟數據塊)必須寫入到磁盤上(DBWR會優(yōu)先保證dirty block的寫出,只有空閑時才會寫flashcache),即 write through 模式。其中,Facebook 的 flashcache 方案可以米用 writeback模式,dirty block首先被寫入flashcache,然后定期刷新到磁盤上,而,flashcache同時承擔了讀cache和寫buffer,因此,flashcache方案性能更好。ORACLE flashcache是純粹的讀cache,可以大幅度提升讀的性能,但是無法提升寫的性能。ORACLE的方案很安全,就算flashcache損壞,也不會丟失任何數據,但是性能比WB模式要差一些,而且flashcache預熱的過程也比較長。另外一點,ORACLE flashcache必須使用ORACLE LINUX,其他操作系統(tǒng)不提供這個功能。
[0060]方案5 Flashcache提供了一個高性價比的方案,但是同時增加了系統(tǒng)的復雜度,如果是WB模式,可能存在數據丟失的風險。因此,當空間可以滿足需要,可以考慮方案一,將所有文件都保存在ioDrive上。當熱點數據明確時,采用方案4將熱點數據(極短的時間內被頻繁訪問的數據)保存在ioDrive上,簡單可控,性價比高。
[0061]實施例一:
進一步的,參見圖4,公開了根據本發(fā)明的高速存儲的數據庫一體機的工作流程圖。包括如下步驟:
Stepl:
當應用服務器4發(fā)起事務請求時,將SQL語句發(fā)送給計算集群I,讓計算集群I某個節(jié)點的進程來處理這條語句。也就是說,Oracle應用服務器4端不會做任何操作,它的主要任務就是把應用服務器端4產生的一些SQL語句發(fā)送給計算集群I。雖然在應用服務器4也有一個數據庫進程,但是,這個進程的作用跟數據庫服務器的進程作用是不同的。數據庫服務器上的數據庫進程才會對SQL語句進行相關的處理。不過,有個問題需要說明,就是應用服務器4的進程跟數據庫服務器11的進程是一一對應的。也就是說,應用服務器4連接到計算集群I后,在應用服務器4與數據庫計算服務器11端都會形成一個進程,應用服務器上的稱為客戶端進程;而數據庫計算服務器上的稱為服務器進程。所以,由于所有的SQL語句都是服務器進程執(zhí)行的,所以,因此,服務器進程也被稱為客戶端進程的“影子”。
[0062]St印2:
當應用服務器端4把SQL語句傳送到計算集群節(jié)點后,計算服務器11進程會對該語句進行解析。
[0063]等到語句解析完成之后,數據庫服務器進程才會真正的執(zhí)行這條SQL語句。
[0064]這個語句執(zhí)行也分兩種情況。一是若被選擇行所在的數據塊已經被讀取到數據緩沖區(qū)的話,則服務器進程會直接把這個數據傳遞給應用服務器端,而不是從數據庫文件中去查詢數據。若數據不在緩沖區(qū)中,則服務器進程將從fusion-1o共享存儲3中讀取數據文件中的數據塊,并把這些數據塊放入到計算集群節(jié)點的數據緩沖區(qū)中。
[0065]目前市場上oracle RAC數據庫基本是采用Fe存儲網絡+SAS盤存儲陣列的模式。本發(fā)明采取了 Infiniband存儲網絡+Fusion-1o存儲陣列架構,與傳統(tǒng)架構相比,具有高10、高帶寬、低延遲等優(yōu)勢,極大地提高了數據讀寫性能。
[0066]Step3:
當語句執(zhí)行完成之后,Oracle查詢到的數據還是在計算服務器11進程中,還沒有被傳送到客戶端的用戶進程。所以,在服務器端的進程中,有一個專門負責數據提取的一段代碼。其作用就是把查詢到的數據結果返回給用戶端進程,從而完成整個事務處理工作。
[0067]實施例二:·
采用2臺計算服務器和3臺fusion-1o存儲服務器作為共享存儲的存儲架構,數據采用asm normal redundancy冗余方案,并將所有文件存放在fusion-1o存儲服務器上的數據存儲方式進行性能測試。
[0068]1.1OPS 測試,IOPS (Input/Output Operations Per Second),即每秒進行讀寫(1/0)操作的次數。
[0069]表1 IOPS測試結果
序號I項目IIOPS值I吞吐量
1_ 純讀15.6 萬 1219.88M/秒
2180% 讀,20% 寫 113.6 萬 IllOl.68M/ 秒
注:基于block為8k為大小測試。
[0070]圖5 (a)示出了本實施例的純讀IOPS與延時圖,圖5 (b)示出了本實施例的混合讀寫IOPS與延時圖。
[0071]2.TPM 測試值
Fusion-1o存儲TPM測試值如下:
【權利要求】
1.一種高速存儲的數據庫一體機,其特征在于:包括計算集群、Infiniband網絡集群和Fusion-1o分布式存儲,其中,所述計算集群包括多個用于計算的計算服務器,所述多個計算服務器組成計算集群,所述Infiniband網絡集群包括多個用于數據交換的Infiniband交換機,所述Fusion-1o分布式存儲包括多個Fusion-1o存儲服務器。
2.根據權利要求1所述的高速存儲的數據庫一體機,其特征在于: 所述計算集群包括至少兩個計算服務器。
3.根據權利要求2所述的高速存儲的數據庫一體機,其特征在于: 所述計算服務器安裝有集群軟件、數據庫客戶端和獨立的操作系統(tǒng)。
4.根據權利要求1所述的高速存儲的數據庫一體機,其特征在于: 所述Infiniband網絡集群包括多個支持RDMA協(xié)議的Infiniband交換機。
5.根據權利要求4所述的高速存儲的數據庫一體機,其特征在于: 所述Infiniband交換機為支持IPoIB的交換機或支持RDS的交換機。
6.根據權利要求5所述的高速存儲的數據庫一體機,其特征在于: 所述Infiniband為支持RDS的交換機。
7.根據權利要求1所述的高速存儲的數據庫一體機,其特征在于: 所述Fusion-1o分布式存儲為外部冗余配置、一般冗余配置或者最高冗余配置;所述外部冗余配置為:FUSi0n-10存儲卡的空間整合為一個統(tǒng)一的磁盤組,不提供任何數據冗余; 所述一般冗余配置為:兩塊Fusion-1o存儲卡之間做鏡像,提供1:1的冗余; 所述最高冗余配置為:將三塊Fusion-1o存儲卡之間做鏡像,提供1:1:1的冗余。
8.根據權利要求7所述的高速存儲的數據庫一體機,其特征在于: 所述Fusion-1o分布式存儲為一般冗余配置。
9.根據權利要求7所述的,其特征在于: 所述Fusion-1o分布式存儲中的數據存放采用以下存儲方式中的一種:將所有文件都保存在Fusion-1o存儲服務器的Fusion-1o存儲卡上,將臨時表空間文件保存在所述Fusion-1o存儲卡上,將重做日志保存在所述Fusion-1o存儲卡上,將熱點數據保存在Fusion-1o存儲卡上,或者將Fusion-1o存儲卡作為f Iashcache緩存。
10.根據權利要求9所述的高速存儲的數據庫一體機,其特征在于: 當Fusion-1o分布式存儲的存儲空間可以滿足需要時,將所有文件都保存在Fusion-1o存儲卡上,當Fusion-1o分布式存儲的存儲空間不能滿足且熱點數據明確時,將熱點數據保存在Fusion-1o存儲卡上。
【文檔編號】G06F17/30GK103873559SQ201410050229
【公開日】2014年6月18日 申請日期:2014年2月13日 優(yōu)先權日:2014年2月13日
【發(fā)明者】儲浩, 黃啟國, 高靜 申請人:南京斯坦德通信股份有限公司