評測:8GB/s FC SAN可支持虛擬操作環境

   

導讀:爲了評估QLogic的8GB/秒FC SAN架構在VOE功能性以及可擴展性方面的能力,openBench實驗室建立了一個實驗環境。

關鍵詞: QLogic FC SAN openBench 評測

大多數IT管理人員將虛擬操作環境(VOE),比如VMware ESX架構,看作降低IT運營成本的靈丹妙藥。但是,爲了理解VOE所能帶來的好處,IT人員必須做好準備,並處理兩個維度上的可擴展性問題:虛擬機 (VM)應擴展到能夠支持I/O密集型或計算密集型應用程序,而VOE服務器應擴展到能夠支持越來越多的VM。

對於存儲局域網(SAN)管理者來說,VOE極大地改變了SAN架構的變化來源,因爲光纖通道(FC)架構的變化將來自SAN架構邊緣所發生的變化:通過數據中心的服務器,而不是存儲陣列,來推動新的業務模式。

當 資源密集型的應用程序被部署在一個VM上時,這些應用程序會產生大量的數據傳輸負荷,並且在容量、吞吐量以及可靠性等方面考驗底層的VOE存儲系統。這種 情況限制了VOE的可擴展性,即每個VOE服務器上可部署的VM數量,並且還影響了VOE服務器在SAN連接合並中的作用。

爲了在各個層面 上解決VOE的I/O問題,QLogic推出了一系列8GB/秒光纖通道架構解決方案。這些解決方案的產品包括QLogic 2500系列的光纖通道主機總線適配器(HBA),以及SANbox 5800系列可堆疊交換機,這種交換機帶有20個8GB/秒光纖通道端口以及4個20GB/秒堆疊端口。

鑑於QLogic的8GB/秒 SAN架構的I/O吞吐性能,該SAN架構可爲用戶帶來快速的投資回報,並極大地簡化VOE的管理。QLogic 2500 HBA提供2個8GB/秒端口,它可以爲一個VOE服務器提供足夠的帶寬來支持8個虛擬機,它所提供的帶寬相當於8個專門的2GB/秒HBA爲8個物理服 務器所提供的帶寬。這種性能有助於提高虛擬機在VOE服務器之間的移動性,而這種移動性對於IT人員來說又是很重要的,因爲虛擬機的移動有助於平衡系統的 工作負荷並最大化資源的利用效率。

同樣重要的是,QLogic系列產品對設備虛擬化的支持達到了新的層次。隨着VOE的加速普及,以及虛擬 機越來越成爲業務關鍵型應用程序的部署選擇,跟蹤SAN內I/O資源的利用將成爲IT人員的重要內容。對於任何一個IT系統虛擬化或系統合併項目來說,一 個重要的標準就是共享的存儲架構是否能夠快速且有效地擴展。這種共享的架構應能夠允許用戶流暢地移動、控制和平衡工作負荷及數據。

爲了評估QLogic的8GB/秒FC SAN架構在VOE功能性以及可擴展性方面的能力,openBench實驗室使用VMware ESX 3.5,並建立了一個可以用來評估VOE可擴展性的實驗環境。

作 爲VOE物理架構的基礎設施,我們在主機服務器上使用了帶多核處理器的戴爾PowerEdge 6850服務器,該服務器帶有4個3.66Hz的英特爾Xeon處理器。爲了進一步構建SAN架構,我們使用了一個4GB/秒QLogic QLE2460 HBA,一個8GB/秒QLE2560 HBA,以及一個SANbox 5802V交換機。爲了構建高速存儲陣列,我們部署了兩個Texas Memory Systems RamSan-400固態磁盤(SSD)陣列。每個SAN存儲系統都有4個控制器,每個控制器都有2個4GB/秒光纖通道端口。最後,我們設置了8個虛擬 機。在Windows Server 2003操作系統下,我們在虛擬機上運行了oblLoad 和IOmeter標杆測試程序。

爲了系統 能夠出現潛在的SAN瓶頸,我們openBench實驗室所建立的VOE可擴展性試驗環境採用了最糟糕的設置。我們有意地設計光纖架構佈局,以便能夠對 QLogic QLE2560 HBA和 SANbox 5802V交換機的運行帶來最大的壓力。我們只部署了一個光纖通道交換機,並將4條4GB/秒數據通道合併到一個8GB/秒HBA上。通過這種佈置,性能 瓶頸和可擴展性瓶頸將只出現在SAN傳輸和VOE問題上。

我們運行oblLoad來創建首塊邏輯磁盤,這一軟件可以在虛擬數據模型中產生數據傳輸。在8KB讀取下,我們每秒鐘得到了超過60000次的I/O請求。

爲 了能夠最大限度地利用VOE,共享存儲SAN是非常關鍵的。虛擬機負載平衡以及高可用性取決於虛擬機的可移動性,而後者又是通過VMotion這樣的軟件 來實現的。因此,VOE主機服務器在訪問同一存儲的時候,必須避免對與虛擬機有關的服務水平協定(SLA)帶來負面影響。

使問題更複雜化的 另一方面是,虛擬機存儲設備的虛擬化通常只着眼於如何簡化虛擬機系統管理,它們的做法就是將所有的磁盤資源從概念上分隔成各個獨立的直連式存儲(DAS) 設備。雖然對於許多初始的虛擬機項目來說,這種DAS設備虛擬化模式所帶來簡便性是非常理想的,但是,如果用戶需要將大型企業級應用程序予以合併,並且這 些大型應用程序是專門在SAN環境的系統上運行的話,那麼這種模式就會帶來許多問題。

首先,這種系統虛擬化模式使得系統只有很少的VOE服 務器能夠用來保證所有虛擬機的I/O水平,每個虛擬機都處在一個1U服務器上面,並帶一個專門的2GB/秒FC SAN連接。由於虛擬機在服務器之間的移動性是提升VOE使用價值的關鍵,因此HBA的性能必須能夠與多核處理器的性能相匹配,只有這樣才能夠方便地在一 個服務器上支持8到16個虛擬機。

其次,IT人員需要解決多個操作問題,比如,在物理系統被遷移到VOE中的虛擬機的時候,需要計算SAN 資源和控制基於分區的設備訪問。一個專門在SAN中運行的系統可以採用虛擬機的形式,從而同光纖架構本身相獨立。但是IT人員的負擔就加重了,因爲他們在 修改現有操作、流程的過程中必須做很多工作,並編制有關的存儲資源的報告。這些任務的計劃編制和執行之繁重就足以妨礙物理系統到VOE的遷移。

在一個基於VMware ESX 3.5的VOE中,管理人員可以將所有的FC HBA設置成專屬於ESX服務器的設備。這是因爲,虛擬機上的所有存儲都是虛擬化的,它把每個邏輯卷都描繪成一個直連式SCSI(小型計算機系統接口)磁盤驅動器。

一 般情況下,這個邏輯卷的載體是一個VMware文件系統(VMFS)卷。一個VMFS卷被稱爲一個數據存儲(datastore),並帶有.vmdk的擴 展名。重要的是,VMFS爲所有的虛擬機磁盤文件提供了分佈式鎖。通過分佈式鎖,一個包含多個虛擬機磁盤文件的數據存儲可以被多個ESX服務器所訪問。另 一個替代方法就是在虛擬機本身的文件系統上使用裸LUN(邏輯單元號),通過VMFS本身的指針文件,將來自VMFS文件系統的訪問請求重定向到裸 LUN。這種方法被稱爲裸設備映射(RDM)。

我 們在ESX服務器上從八臺虛擬機中使用IOmeter來驅動I/O讀取的吞吐量。理論上使用QLE2560 HBA總I/O吞吐量約爲800MBps。也就是說,每一個虛擬機上內部的I/O大約爲100Mbps。這一級的I/O讀取量對於物理機連接到使用 SATA或SAS驅動器的FC陣列是比較合適的。另一方面,我們的ESX服務器的讀取量是有限的,在QLE2460上大約爲400MBps。這將每個虛擬 機上的I/O吞吐量限制在約50MBps。

從虛擬機的角度來看,能夠匹配虛擬機的SAN架構是直到最近纔出現的。 對於SAN對象來說,比如交換機、HBA和存儲設備,它們必須通過全局名稱(WWN)才能獨一無二地標誌爲光纖架構內的對象。如果沒有唯一的全局名稱,那 麼虛擬機就只能通過VOE服務器上所安裝的物理HBA的全局名稱來訪問SAN存儲LUN。實際上,這使得虛擬機在SAN中是不可視的。

對於 虛擬機來說,其進入存儲網絡的第一步就是光纖通道端口虛擬化的推出。N端口ID虛擬化是ANSI(美國國家標準學會)T11小組所制定的標準,該技術被稱 爲NPIV。VMware ESX 3.5能夠支持NPIV感知型SAN交換機與HBA。ESX管理員現在可以創建一個WWN標誌集合,在這個集合裏,管理員可以爲物理的FC HBA端口建立一個全局節點名稱(WWNN)和4個虛擬的全局端口名稱(WWPN)。

虛擬WWPN可以分配給任何一個使用裸設備映射 (RDM)磁盤的虛擬機。當虛擬機啓動的時候,VM內核(VMkernel)將尋找訪問SAN上的LUN的訪問路徑。一旦在NPIV感知型HBA上發現一 個路徑,VM內核就會初始化一個唯一的虛擬端口(VPORT)。在SAN架構內,這個VPORT顯示爲虛擬機上所安裝的虛擬HBA的端口。

一 旦我們給一個虛擬機分配好了一個虛擬端口全局名稱,那麼NPIV感知型的QLogic SANbox 5802V交換機就會馬上認出這個新的端口全局名稱。然後,該交換機將同時把最初的QLogic HBA端口全局名稱和新的VMware虛擬HBA端口全局名稱聯繫到交換機上的同一個端口上。

從可擴展性的角度來說,8GB/秒光纖通道架構可以提供快速的投資回報。由於服務器性能的快速提升,對帶寬的需求也在不斷增加。在市場上推出了四核處理器和高速PCI-e總線後,我們現在已經能經常看到一個商品服務器上承載8個或8個以上的虛擬機。

在 這樣的環境中,8GB/秒架構可以幫助用戶優化存儲資源的利用,避免用戶因爲給VOE服務器配置多個HBA和交換機端口所帶來的額外成本。一個雙端口 8GB/秒QLE2560 HBA可以爲一個ESX服務器提供足夠的I/O帶寬來支持8個虛擬機,每個虛擬機都可以得到相當於專門的2GB/秒FC連接的帶寬。

在測試 吞吐量的時候,我們首先希望能夠測試出在一個8GB/秒QLogic HBA環境下的一個虛擬機可以產生的I/O傳輸的數量。其次,我們希望能夠測試出HBA上的一個主動端口是否可以滿足來自VOE主機服務器上的所有I/O 請求。爲了能夠單獨測試出這些性能數據,我們使用了QLogic Enterprise Fabric Suite軟件來監控SANbox 5802V每個端口上的所有傳輸。

實驗的第一步是測試在QLogic 2560 HBA環境下一個虛擬機所能產生的I/O傳輸。我們利用兩個TMS固態磁盤來作爲RDM磁盤,然後我們開始oblLoad標杆測試。在每個I/O請求爲 8KB的情況下,我們的虛擬機每秒可以處理超過6萬個I/O(IOPS)。虛擬機的這種I/O請求處理能力有很大的意義。

我們測試中所看到 的IOPS數字顯示虛擬機有能力將用途擴展到I/O密集型的應用程序,比如Exchange、SQL Server和Oracle。同樣重要的是,我們的虛擬機在處理這種I/O負荷的過程中,讀取數據的速度超過了500MB/秒,這個吞吐量水平,比起 4GB/秒HBA(比如QLE2460)上的一個光纖通道端口所能支持的最高吞吐量還要高出25%。換句話說,我們主機服務器上的一個4GB/秒HBA限 制了虛擬機所能達到的I/O吞吐量。

我們的另一個性能測試目的就是測試8GB/秒SAN架構能否擴展成一個VOE,並提高多個虛擬機的存儲 資源利用率水平。我們在第一步試驗中發現了虛擬機的I/O性能瓶頸,爲了更好的衡量這種瓶頸,我們同時利用一個8GB/秒QLE2560 HBA和一個4GB/秒 QLE2460 HBA來處理8個虛擬機以及8個邏輯驅動器所產生的I/O傳輸,其中8個邏輯驅動器是位於TMS SSD固態磁盤陣列上。對於帶多個4GB/秒設備的SAN環境來說,RamSan-400陣列是ESX服務器的理想選擇。

爲了進行這些測 試,我們在每個HBA上設置了兩個端口,這兩個端口可以作爲主動-被動式故障復原組合。測試開始後,我們讓所有8個虛擬機都開始運行一個工作進程,進行讀 取I/O操作。在測試過程中,我們在固定時間間隔內逐漸提高I/O塊的大小。在我們的試驗設置下,ESX服務器的理論讀取吞吐量被限制到了800MB/秒 (如果使用QLE2560)和400MB/秒(如果使用QLE2460)。

使 用IOmeter在兩個邏輯SSD上驅動32KB讀取,我們的總I/O讀取量超過800MBps。新增的兩個32KB寫入I/O線程導致我們的ESX服務 器產生更多負載。當寫入吞吐量徘徊在700MBps,讀取吞吐量下滑到剛剛超過600MBps。然而,在我們4Gbps HBA環境下,總的I/O吞吐量在同時讀取和寫入要大過理論極限1.7倍。

至於單個虛擬機,ESX服務器的內 部負載平衡機制使每個虛擬機在QLE2560上的吞吐量限制在了100MB/秒。但是,如果使用QLE2460,那麼隨着I/O塊大小的提高,單個虛擬機 的吞吐量被限制在了50MB/秒。不過,如果使用8KB的I/O塊,那麼VOE服務器上的8個虛擬機的讀取速度可以超過50MB/秒,總的I/O工作量可 以超過400MB/秒--這個結果基本符合我們此前在單個虛擬機上進行oblLoad標杆測試所得出的結果。更重要的結論還包括,在讀取SATA磁盤或 SAS磁盤所構建的RAID(獨立磁盤冗餘陣列)-5陣列上的數據的時候,Windows系統一般能夠達到110MB/秒到130MB/秒的I/O吞吐水 平。

在我們最後的I/O壓力測試中,我們測試了8GB/秒QLogic 2560 HBA上一個主動端口,在4GB/秒連接的情況下,處理多個讀取和寫入I/O流的能力,這些I/O流來自多個存儲陣列。爲了進行這項測試,我們設置了4個 虛擬機,每個虛擬機都配有專門的RDM卷,這些RDM捲來自兩個固態磁盤陣列中的一個。在其中兩個虛擬機上,我們運行了一個IOmeter進程,在 32KB的I/O請求下進行數據讀取。在另外兩個虛擬機上,我們也運行了IOmeter進程,是在32KB的I/O請求下將數據寫入RDM卷。

在 進行數據讀取操作的兩個虛擬機上,我們的ESX服務器都可以將I/O吞吐量保持在800MB/秒以上,然後我們在剩下的兩個虛擬機上進行了IOmeter 數據寫入操作。我們讓多個虛擬機同時進行多個存儲陣列的數據讀取和數據寫入操作,使用QLogic QLE2560 HBA的主機服務器保持了全雙工I/O吞吐量水平,而且該吞吐量比起4GB/秒HBA所能維持的最高帶寬還要高出70%。從另一個角度來說,一個帶2個光 纖通道端口的8GB/秒HBA可以爲一個主機VOE服務器上的8個虛擬機提供相當於8個2GB/秒HBA的帶寬水平。

本文作者Jack Fegreus是openBench實驗室的首席技術官。

 

原文:http://storage.doit.com.cn/article/2008/1103/2489112_4.shtml

發佈了7 篇原創文章 · 獲贊 4 · 訪問量 44萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章