openstack HA高可用之CEPH後端存儲配置(上)

在之前的文章和小夥伴分享了openstack組件HA高可用的配置,今天分享一下openstack HA高可用採用Ceph做後端存儲。

ceph作爲一個分佈式存儲系統,在很多領域有很好的應用案例,其中在和openstack對接表現異常突出,ceph和openstack的對接,主要表現在做爲cinder、glance、vms的存儲,cinder爲openstack的塊存儲,爲雲主機提供數據卷,glance爲鏡像存儲,vms主要是存儲虛擬機,一般我們會在ceph 集羣創建完成之後創建三個pool、分別爲cinder 、glance、vms。

 本次實驗我們是將該環境裝在我們的openstack的高可用集羣的所有節點上,採用的ceph版本爲M版本,所有節點上安裝分佈式存儲系統ceph軟件在所有的控制節點安裝ceph-deploy   yum -y install ceph-deploy

其中的一個

mkdir -p /cluster

在此次的實驗中我們把三個控制節點作爲ceph mon節點

cd /etc/cluster

ceph-deploy new controller01 controller02 controller03

修改生成的ceph.conf配置文件 增加集羣網絡以及副本參數

vi /ect/cluster/ceph.conf

public_network=172.17.0.0/24

cluster_network = 10.10.20.0/24

osd pool default size = 2

mon_allow_pool_delete = true

在所有的節點安裝ceph軟件

在這我們採取yum的傳統安裝方式

yum install -y ceph ceph-radosgw(所有的節點包括計算和控制)

同時可以採取ceph-deploy install xxx 安裝方式,這個安裝方式會安裝epel源 導致安裝異常的慢

在三個mon節點上的任意一個做初始化

ceph-deploy mon create-initial

在管理節點的目錄向所有集羣的節點分發祕鑰

ceph-deploy admin controller01 controller02 controller03 compute01 compute02 compute03

 

創建osd

 

在集羣的管理節點目錄操作

 

ceph-deploy osd create controller01 --data /dev/sdb

 

ceph-deploy osd create controller02 --data /dev/sdb

 

ceph-deploy osd create controller03 --data /dev/sdb

 

ceph-deploy osd create compute01 --data /dev/sdb

 

ceph-deploy osd create compute02--data /dev/sdb

 

檢查osd情況

 

ceph osd tree

 

ceph osd stat

 

openstack與ceph對接準備

 

創建所需要的pool池子

 

ceph osd pool create volumes 128

 

ceph osd pool create vms 128

 

ceph osd pool create images  128

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章