聯想基於OpenStack的高可用企業雲平臺實踐

本文轉自CSDN首頁,如有侵權請及時和我聯繫,馬上刪除。

原文地址: http://www.csdn.net/article/2015-09-17/2825729



【編者按】在《InfoWorld》評選的年度最佳開源平臺、基礎設施、管理和編排軟件中,Container相關的軟件上榜無數,而OpenStack榜上無名,但這並不意味着IaaS的沒落,它仍是雲的基石,只是在國外已經比較成熟。但在中國市場,說得上的OpenStack案例,往往來自互聯網公司,儘管有企業就緒的呼聲,傳統行業對OpenStack仍然觀望居多。本文介紹了IT大廠聯想集團基於OpenStack構建私有云的轉型實踐,從技術架構和業務應用層面,驗證了OpenStack的企業級高可用。儘管OpenStack承載的仍是互聯網業務,但聯想計劃在年內將20%的IT系統遷移到雲,這是難能可貴的一大步。

在走向移動化、社交網絡的過程中,無論傳統的PC與手機都經歷着激烈的競爭及快速的技術轉變。在面臨市場的飛速演變與競爭中,聯想集團提出了從產品導向到用戶導向轉型的新戰略。而只有可快速迭代、彈性擴展的企業雲平臺才能夠支撐聯想這種業務創新的需求。經過慎重研究與評估後,聯想IT選擇了基於OpenStack承載其“互聯網”戰略的企業雲平臺。經過半年多的實踐,已經建設成爲規模超過3000 Core的OpenStack生產級環境,數據以最高10TB/天的速度快速增長,並計劃在年內將10%~20% IT負載遷移到雲環境。

轉型與雲選型

以往的聯想的內部IT主要面向大型客戶以及渠道爲主,系統架構以包括IBM Power小機、AIX、PowerVM、DB2及近年普遍使用的VMware虛擬化的傳統IT架構構建而成。在向互聯網企業轉型的過程中,首先在用戶數與交易量就遠遠無法支撐全新的B2C的業務。其次在成本方面,聯想以往的IT架構是大規模採用商用化的解決方案,可靠但不便擴展且成本昂貴。

此外,對於IT團隊的效率與安全合規性,傳統的IT架構仍然無法支撐起聯想面向電商與移動新業務轉型。2015年,聯想IT進入到基礎架構再造的階段——需要採用新的雲計算平臺來支撐新的業務。


在選型過程中,聯想對主流的x86虛擬化技術、私有云平臺、公有云進行了全面分析與對比後,聯想從穩定性、可用性、開放性、以及生態系統的全面與活躍度等因素考慮,最終認爲OpenStack雲平臺技術可以滿足聯想的企業需求,聯想確定採用OpenStack作爲其業務持續創新的基礎雲平臺。

在OpenStack架構設計之初,聯想就考慮了容災方案,包括虛機、雲硬盤、數據庫等,確保在發生故障時可以迅速切換,確保業務的高可靠性。

高可用的架構設計

在邏輯架構上,聯想企業雲平臺完全通過軟件定義環境的方式來管理基礎架構,底層採用x86服務器以及10Gb網絡,引入互聯網式的監控運維解決方案,並用OpenStack平臺來管理所有資源。


聯想企業雲邏輯架構

出於高可用角度、最大化的提升雲平臺的系統效率,聯想設計了雲平臺的物理架構,並採用高配置的服務器來構成計算、存儲與網絡一體的超融合系統,通過OpenStack整合爲統一的資源池,將計算節點和存儲節點放在同一個物理節點上。


聯想企業雲物理架構

硬件層面,雙路的System X3650服務器,以及四路的ThinkServer RQ940,成爲了聯想企業雲平臺的硬件支柱。每節點用5個SSD硬盤與12個SAS硬盤來構成存儲模塊;SSD不僅用來做存儲的緩衝,也是高性能存儲池資源;並通過VM訪問分佈式存儲,來實現系統的高可用性。

爲了將OpenStack提升至企業級服務水平,聯想在計算、網絡、存儲等方面解決了很多挑戰。

計算

在計算方面,聯想採用高密度的虛機部署方式,底層基於KVM 虛擬化技術,通過多種優化手段,發揮物理機最大性能,在計算存儲融合架構下對CPU,內存等硬件資源做隔離。最終實現在每臺雙路CPU計算節點上保證50+虛機仍能平穩高效運行。

另外,在雲環境裏面一般提倡應用程序自身高可用來應對硬件故障,但仍然有一些應用屬於傳統應用,對於單個主機的可用性還有要求。對於不能做高可用的傳統應用,聯想通過Compute HA技術實現了計算節點的高可用,通過多種檢測手段判定計算結點是否發生故障,將故障物理機上的虛機遷到其它可用的物理機上,整個過程無人值守,最大程度減少因爲物理機故障導致的業務中斷。


網絡

l  網絡隔離

使用不同網卡,不同交換機或不同VLAN將各種網絡隔離,如:單獨的OpenStack管理網,虛機生產網絡,存儲網絡,公網,PXE網絡。避免網絡相互干擾,達到提高整體帶寬和更好監控網絡的目的。


聯想OpenStack企業雲平臺網絡架構

l  多Public網絡

通過多個Public網絡實現網絡靈活性,便於管理安全策略。比如聯通Public網絡,電信Public網絡,辦公Public網絡。


l  網絡及優化

使用VLAN網絡模式,與傳統數據中心網絡更好的整合,通過優化VLAN數據包處理,達到很好的網絡數據包處理能力,讓虛機網絡帶寬接近物理網絡帶寬。

l  雙網卡綁定,多交換機

通過雙網卡綁定到不同的交換機達到物理網絡的高可用。

l  網絡節點HA

通過多個網絡節點,實現公網的負載均衡及HA,實現高性能和高可用, 網絡節點使用Router級別的Active/Standby方式實現HA,使用獨立的網絡路由監控服務確保網絡HA的穩定性。


存儲

聯想OpenStack雲平臺採用Ceph作爲統一存儲後端,其中Glance鏡像、Nova虛擬機系統盤、Cinder雲硬盤的數據存儲由Ceph RBD提供,利用Ceph的Copy on Write特性,通過修改OpenStack代碼,可做到秒級虛擬機部署。


Ceph作爲統一存儲後端,其性能無疑是企業核心應用是否虛擬化、雲化的關鍵指標之一。在計算存儲共同運行的超融合部署架構中,存儲性能調優既要最大化存儲性能、又要保證計算和存儲資源的隔離,保證系統的穩定性。針對如下圖所示的整個IO棧,聯想從下往上,對各層進行了優化:


l  網絡方面

打開Jumbo幀,提高數據傳輸效率;同時可採用10Gb以太網絡來承載Ceph Cluster網絡的流量,提高Ceph數據複製效率。

l  性能方面

利用SSD固態盤作爲Ceph OSD日誌盤來提高整個集羣IO性能,來達到關鍵業務(如電商系統的數據庫業務等)對性能的要求,做到性能和成本的最佳平衡點。SSD 具有低功耗,響應時間短,高IOPS,高吞吐量的特點。在Ceph的日誌系統,對應的是多線程訪問,採用SSD來代替機械硬盤,可以充分發揮,SSD隨機讀寫響應時間短,高IO吞吐量的特點。通過調整IO調度策略,使之更適合於SSD盤,降低了整個IO的延時。


l  合理規劃

根據服務器上虛擬機的密度,合理規劃超融合節點下Ceph OSD的數量,併爲OSD預分配CPU和內存等資源,同時,爲保證系統穩定性,採用cgroup、taskset等工具對QEMU-KVM和Ceph OSD進行資源隔離。

l  參數調優

Ceph參數調優方面,通過調整Journal,FileStore的默認隊列、OSD的OP線程數等參數,可有效提高性能。其它更多調優參數,可通過迭代測試,找到當前硬件環境的最佳參數。

l  數據高可用

數據高可用方面,除了OpenStack已有的數據保護措施之外,聯想未來規劃中的兩地三中心也做了數據災備方案的準備:


通過專有的低延遲的光纖專線,數據可同步存儲在同城備份中心,可異步存儲在異地災備中心,最大限度保證數據安全性。

AD集成

此外,聯想還將自身的業務需求融入到了OpenStack企業雲平臺中,作爲一個擁有數萬名員工的大企業,需要通過AD活動目錄來進行認證,員工就不用單獨再建用戶、記口令等;通過協作方的定製開發,聯想已將AD功能融入OpenStack企業雲平臺之中。

應用成果

在構建好整個OpenStack企業雲平臺之後,聯想面向“互聯網”轉型的關鍵才得以展開,電子商務、大數據分析、IM、手機在線業務支撐等互聯網業務,從測試到生產真正的由聯想企業雲平臺支撐起來。從創新應用的測試團隊反饋來看,聯想企業雲平臺目前運行良好。

在聯想OpenStack企業雲平臺的建設過程中,聯想選擇了國內的OpenStack公司提供專業諮詢與服務,幫助聯想建設初期平臺,培養了OpenStack專家。對聯想而言,選擇OpenStack合作伙伴的主要考慮因素,就是對社區的兼容和不斷的升級,以及企業級服務經驗。

作者簡介:趙明,聯想OpenStack私有云項目經理。(編輯/周建丁)


發佈了32 篇原創文章 · 獲贊 25 · 訪問量 23萬+
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章