雲計算數據中心局域網技術淺析

雲計算數據中心局域網技術

第一代數據中心局域網

第一代數據中心局域網是傳統以太網,衆所周知,performance和cost是推動其快速部署和應用的主要原因。

 

第二代數據中心局域網

第二代數據中心局域網就是包含接入、分發和核心三層的架構,其中典型的技術特徵包括:SPT、缺少集中式控制、best-effort、低端口密度、數據網絡與存儲網絡分離、VLAN分離廣播域、ACL訪問控制等。

 

第三代數據中心局域網

驅動IT企業重新設計其數據中心網絡的根本原因還是虛擬化服務器的部署和增加。那麼,虛擬化服務器導致IT企業重新設計其數據中心網絡的根本原因又何在呢?只要體現在以下幾個方面:

1 虛擬機遷移時需要大量的手工網絡配置

雲計算所提供的靈活性、敏捷型以及開銷有效性很多得益於虛擬機的遷移。雖然從服務器的角度講,遷移虛擬機是一個相對簡單的過程,但是虛擬機所關聯的網絡配置目前需要大量的手工配置來實現同步遷移,包括QoS設置、訪問控制以及防火牆設置,連同日誌和審計功能等。

2 引發了虛擬交換機管理的爭議

每個虛擬化服務器內部至少有一個虛擬交換機vSwitch,這增加了管理的複雜度,服務器的開銷等。

3 網絡策略實施的不一致性

傳統的vSwitch是很簡單的,往往缺少數據中心中流量控制和隔離的高級功能,比如虛擬VLAN、QoS、複雜的ACL等。

4 缺少虛擬機遷移的二層網絡支持

虛擬機遷移時,網絡需要滿足諸如vMotion等所限定的條件,如源/目的服務器在同一個VLAN中等。

5 其他

此外,還有降低開銷等很多其他原因。

 

如果說前兩代數據中心在數據鏈路層技術上還有爭論的話(以太、Token Ring、FDDI/CDDI和ATM),第三代數據中心將壓倒一切地使用以太網作爲單一的交換結構,包括替代存儲網絡的光纖信道(Fibre Channel)以及用於超低延遲(ultra lowlatency)HPC集羣互聯的InfiniBand。

 

下面是第三代數據中心的主要目標以及可能的實現技術

1 爲服務器間通信而改進的拓撲結構

在第二代數據中心網絡中,傳統的輻射型(huband spoke)拓撲結構適合於客戶端到服務器的通信模式(有時稱爲縱向流量或者南北向流量),而不適合於服務器間通信(也稱爲橫向流量或者東西向流量)。那麼,第三代數據中心網絡就是採用扁平化的兩層次拓撲結構,僅包含接入和匯聚兩層。兩層拓撲的明顯好處是:減少服務器間的跳數、降低延遲、方便VLAN擴展到整個數據中心。

2 高端口密度和速度

模塊化交換機最多256個10G端口,堆疊式交換機則48個。

上行鏈路uplink帶寬可達40GbE,或者使用LAG(Link Aggregation)進行匯聚。

3 高可用性

主要指模塊化交換機所提供的在交換模塊、路由處理器、冷卻和能源上的冗餘。

4 交換機虛擬化

交換機虛擬化是一種網絡多虛一的概念,其含義就是多個物理交換機被抽像成爲一個大的,然後共享單一的控制平面。

這個部分第一波技術是MC-LAG(multi-chassis link aggregation group),對應的標準化是IEEE 802.3ad標準,核心思想就是在接入層和匯聚層聚合多條鏈路,一方面達到以往STP和VRRP解決的消除環路的目的,另一方面通過特定的哈希算法實現多鏈路的負載均衡。如下圖



MC-LAG只是第三代數據中心局域網的中間過渡技術,其未來替代者將是IETF的TRILL,IEEE的SPB(802.1aq)以及Cisco的FabricPath。這三個技術是很像的,只不過屬於不同的領域纔沒有產生衝突,本質上都是在控制平面使用L2 ISIS進行拓撲學習和計算,在數據平面使用MACinMAC進行報文傳輸。

由於上述技術的發展,數據中心局域網拓撲也正在從輻射型(hub and spoke)的二層結構轉變成網狀(mesh)的二層結構,典型代表就是目前的FatTree結構。因爲TRILL/SPF Briding技術的發展,使得接入交換機與核心交換機間的差別越來越小。同時使用ECMP實現多路徑。如下圖所示

5 控制和管理虛擬機流量

衆所周知,服務器內傳統的虛擬交換機vSwitch有很多弊端,諸如增加管理複雜性、功能有限、成爲服務器I/O瓶頸、多廠商異構、虛擬機間流量可見性等。目前有三大類解決這個問題的技術趨勢:

(1)DVS:Distributed Virtual Switching,核心思想就是將vSwitch中的控制層抽取到一個集中式的管理系統中去。但是這僅能對管理衆多vSwitch的複雜性有所緩解。

(2)EVB:Edge Virtual Bridging,即IEEE 802.1qbg標準。其核心就是簡單升級現有交換機實現“髮卡轉發”(hairpin turn)將vSwitch從所有交換功能中解放出來。目前成熟的技術是VEPA,並且絕大多數廠商都支持。

(3)BPE:Bridge Port Extension,即IEEE 802.1qbh標準。其核心思想是把交換機的接口模塊延伸到物理網卡中,網卡的虛擬接口和物理接入交換機都由統一的控制平面管理,核心是利用標籤tag技術。


6 網絡融合

第三代數據中心局域網的典型特徵是存儲與普通數據融合在同一個高速以太網上。這樣做的好處很顯然,節省空間、降低能耗和管理複雜度等。但是傳統以太網“盡力而爲”的特性需要改變。爲此,傳統以太網需要增強流控機制以消除緩存溢出(buffer overflow)的情況。無丟包以太網的核心技術就是IEEEDCB(Data Center Briding)標準,包括如下幾個相關標準:流控(IEEE 802.1QbbPriority-based Flow Control (PFC)),擁塞通知(IEEE 802.1QauCongestion Notification (CN)),傳輸選擇(IEEE 802.1QazEnhanced Transmission Selection (ETS))。

 

6 虛擬機動態創建和遷移的網絡支持

目前自動化虛擬機遷移過程通常是基於Hypervisor管理系統與交換機組件管理系統(switch element management system,EMS)間的通信過程完成的。1) 當有虛擬機要遷移或者動態創建時,Hypervisor通過API告知EMS,並提供這個虛擬機網絡的部分配置,包括虛擬MAC、VLAN、目標Hypervisor。2) EMS根據已有策略,擴展虛擬機網絡配置,包括QoS以及ACL等。3)EMS根據目標Hypervisor可以推測其接入交換機,並對其進行配置(如增加VLAN等)。
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章