Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

安裝Ceph 軟件

pve-->Ceph-->"Install Ceph-nautilus"
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

然後就跟着一步一步做就好了。
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置
“Start installation"
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置
Y後回車
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置
可以專門設置Ceph專用網絡

Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置
Install Cehp Finish.
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

配置Ceph的磁盤

pve--> Ceph --> OSD --> Create:OSD
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置
Disk選擇做Raid0未使用的硬盤。
DB Disk: 我直接使用default配置,如果有SSL硬盤可以規劃一下。
WAL Disk: 我直接使用default配置,如果有SSL硬盤可以規劃一下。

點擊: Create
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置
過一會,刷新就工作正常了。
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

按照上述方式,把pve服務器其它硬盤也全部加進來。(上述爲VM測試機)

下面的顯示全是物理機:
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

三臺機器全部安裝好,把osd創建好後,情況如下:
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

創建pool供服務器使用

pve--> Ceph --> Pools --> Create
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置
pg_num這個數值比較關鍵,如果不合適的話,Ceph會告警
官方建議:
若少於5個OSD, 設置pg_num爲128。
5~10個OSD,設置pg_num爲512。
10~50個OSD,設置pg_num爲4096。(我們11個osd,選這項)

一創建後,pve下的存儲就會多出一個Test_pool
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

大約等個幾秒,Test_pool準備就緒
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置
正常就可以在Test_poll上安裝虛擬機了

Notes: Ceph可以創建多個Pool,有點類似於存儲中的Thin Pool。
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

Ceph 磁盤管理

磁盤下線

如果想把一個ceph上正用的磁盤拿下來,如下操作:
先stop--->再out (類似先把osd的服務停止,再把磁盤取出)
把osd.10 stop後,狀態如下:
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

然後再把osd.10 out,狀態如下:
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

磁盤上線

先in --->再start (類似於把把磁盤放進去,再啓動osd服務)
把osd.10 in 後,狀態如下:
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置

再把osd.10 start
Proxmox VE 6.1從零帶你瞭解之--Ceph的安裝與配置
等幾秒後,osd.10恢復正常狀態。

命令行查看ceph狀態

root@pve:~# ceph df
RAW STORAGE:
CLASS SIZE AVAIL USED RAW USED %RAW USED
hdd 2.2 TiB 2.1 TiB 88 GiB 99 GiB 4.49
TOTAL 2.2 TiB 2.1 TiB 88 GiB 99 GiB 4.49

POOLS:
POOL ID STORED OBJECTS USED %USED MAX AVAIL
dpool 4 27 GiB 28.39k 87 GiB 4.29 646 GiB
test01 6 0 B 0 0 B 0 646 GiB
cephfs_data 7 0 B 0 0 B 0 646 GiB
cephfs_metadata 8 17 KiB 22 1.5 MiB 0 646 GiB
Test_Pool 9 0 B 0 0 B 0 646 GiB
Test_pool1 10 0 B 0 0 B 0 646 GiB
root@pve:~# ceph osd df
ID CLASS WEIGHT REWEIGHT SIZE RAW USE DATA OMAP META AVAIL %USE VAR PGS STATUS
0 hdd 0.13280 1.00000 136 GiB 9.5 GiB 8.5 GiB 31 KiB 1024 MiB 127 GiB 6.98 1.55 189 up
1 hdd 0.13280 1.00000 136 GiB 8.5 GiB 7.5 GiB 39 KiB 1024 MiB 127 GiB 6.26 1.40 167 up
2 hdd 0.13280 1.00000 136 GiB 6.7 GiB 5.7 GiB 51 KiB 1024 MiB 129 GiB 4.90 1.09 158 up
3 hdd 0.13280 1.00000 136 GiB 8.5 GiB 7.5 GiB 31 KiB 1024 MiB 127 GiB 6.25 1.39 158 up
4 hdd 0.13280 1.00000 136 GiB 8.3 GiB 7.3 GiB 139 KiB 1024 MiB 128 GiB 6.08 1.35 156 up
5 hdd 0.13280 1.00000 136 GiB 7.1 GiB 6.1 GiB 23 KiB 1024 MiB 129 GiB 5.20 1.16 165 up
6 hdd 0.13280 1.00000 136 GiB 9.5 GiB 8.5 GiB 55 KiB 1024 MiB 126 GiB 7.01 1.56 174 up
7 hdd 0.13280 1.00000 136 GiB 8.4 GiB 7.4 GiB 135 KiB 1024 MiB 128 GiB 6.17 1.38 177 up
8 hdd 0.27150 1.00000 278 GiB 6.1 GiB 5.1 GiB 47 KiB 1024 MiB 272 GiB 2.20 0.49 153 up
9 hdd 0.27150 1.00000 278 GiB 9.0 GiB 8.0 GiB 167 KiB 1024 MiB 269 GiB 3.25 0.72 170 up
10 hdd 0.54489 1.00000 558 GiB 17 GiB 16 GiB 167 KiB 1024 MiB 541 GiB 3.08 0.69 349 up
TOTAL 2.2 TiB 99 GiB 88 GiB 891 KiB 11 GiB 2.1 TiB 4.49
MIN/MAX VAR: 0.49/1.56 STDDEV: 1.75
root@pve:~# ceph status
cluster:
id: 973df567-8154-4bf3-9cbd-673210de1745
health: HEALTH_OK

services:
mon: 3 daemons, quorum pve,pve02,pve03 (age 3h)
mgr: pve(active, since 2h)
mds: cephfs:1 {0=pve=up:active} 2 up:standby
osd: 11 osds: 11 up (since 4m), 11 in (since 4m)

data:
pools: 6 pools, 672 pgs
objects: 28.41k objects, 109 GiB
usage: 99 GiB used, 2.1 TiB / 2.2 TiB avail
pgs: 672 active+clean

io:
client: 130 KiB/s rd, 95 KiB/s wr, 1 op/s rd, 8 op/s wr

    root@pve:~# ceph osd status

+----+-------+-------+-------+--------+---------+--------+---------+-----------+
| id | host | used | avail | wr ops | wr data | rd ops | rd data | state |
+----+-------+-------+-------+--------+---------+--------+---------+-----------+
| 0 | pve | 9715M | 126G | 1 | 4096 | 1 | 102k | exists,up |
| 1 | pve | 8717M | 127G | 0 | 0 | 0 | 0 | exists,up |
| 2 | pve | 6818M | 129G | 1 | 15.2k | 0 | 3 | exists,up |
| 3 | pve | 8707M | 127G | 1 | 48.0k | 0 | 0 | exists,up |
| 4 | pve02 | 8460M | 127G | 0 | 1638 | 0 | 56.4k | exists,up |
| 5 | pve02 | 7243M | 128G | 2 | 22.4k | 0 | 0 | exists,up |
| 6 | pve02 | 9769M | 126G | 0 | 1638 | 0 | 51.2k | exists,up |
| 7 | pve02 | 8596M | 127G | 1 | 5734 | 0 | 0 | exists,up |
| 8 | pve03 | 6267M | 271G | 0 | 1638 | 0 | 102k | exists,up |
| 9 | pve03 | 9250M | 268G | 0 | 6553 | 0 | 0 | exists,up |
| 10 | pve03 | 17.2G | 540G | 1 | 17.6k | 2 | 0 | exists,up |
+----+-------+-------+-------+--------+---------+--------+---------+-----------+
root@pve:~#

root@pve:~# ceph osd stat
11 osds: 11 up (since 10m), 11 in (since 11m); epoch: e3390
root@pve:~# ceph osd tree
ID CLASS WEIGHT TYPE NAME STATUS REWEIGHT PRI-AFF
-1 2.15027 root default
-3 0.53119 host pve
0 hdd 0.13280 osd.0 up 1.00000 1.00000
1 hdd 0.13280 osd.1 up 1.00000 1.00000
2 hdd 0.13280 osd.2 up 1.00000 1.00000
3 hdd 0.13280 osd.3 up 1.00000 1.00000
-5 0.53119 host pve02
4 hdd 0.13280 osd.4 up 1.00000 1.00000
5 hdd 0.13280 osd.5 up 1.00000 1.00000
6 hdd 0.13280 osd.6 up 1.00000 1.00000
7 hdd 0.13280 osd.7 up 1.00000 1.00000
-7 1.08789 host pve03
8 hdd 0.27150 osd.8 up 1.00000 1.00000
9 hdd 0.27150 osd.9 up 1.00000 1.00000
10 hdd 0.54489 osd.10 up 1.00000 1.00000
-9 0 host pve04
root@pve:~#

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章