在之前的文章和小夥伴分享了openstack組件HA高可用的配置,今天分享一下openstack HA高可用採用Ceph做後端存儲。
ceph作爲一個分佈式存儲系統,在很多領域有很好的應用案例,其中在和openstack對接表現異常突出,ceph和openstack的對接,主要表現在做爲cinder、glance、vms的存儲,cinder爲openstack的塊存儲,爲雲主機提供數據卷,glance爲鏡像存儲,vms主要是存儲虛擬機,一般我們會在ceph 集羣創建完成之後創建三個pool、分別爲cinder 、glance、vms。
本次實驗我們是將該環境裝在我們的openstack的高可用集羣的所有節點上,採用的ceph版本爲M版本,所有節點上安裝分佈式存儲系統ceph軟件在所有的控制節點安裝ceph-deploy yum -y install ceph-deploy
其中的一個
mkdir -p /cluster
在此次的實驗中我們把三個控制節點作爲ceph mon節點
cd /etc/cluster
ceph-deploy new controller01 controller02 controller03
修改生成的ceph.conf配置文件 增加集羣網絡以及副本參數
vi /ect/cluster/ceph.conf
public_network=172.17.0.0/24
cluster_network = 10.10.20.0/24
osd pool default size = 2
mon_allow_pool_delete = true
在所有的節點安裝ceph軟件
在這我們採取yum的傳統安裝方式
yum install -y ceph ceph-radosgw(所有的節點包括計算和控制)
同時可以採取ceph-deploy install xxx 安裝方式,這個安裝方式會安裝epel源 導致安裝異常的慢
在三個mon節點上的任意一個做初始化
ceph-deploy mon create-initial
在管理節點的目錄向所有集羣的節點分發祕鑰
ceph-deploy admin controller01 controller02 controller03 compute01 compute02 compute03
創建osd
在集羣的管理節點目錄操作
ceph-deploy osd create controller01 --data /dev/sdb
ceph-deploy osd create controller02 --data /dev/sdb
ceph-deploy osd create controller03 --data /dev/sdb
ceph-deploy osd create compute01 --data /dev/sdb
ceph-deploy osd create compute02--data /dev/sdb
檢查osd情況
ceph osd tree
ceph osd stat
openstack與ceph對接準備
創建所需要的pool池子
ceph osd pool create volumes 128
ceph osd pool create vms 128
ceph osd pool create images 128