目的
利用 crushmap , 把不同的 osd 存放到不同的分組中
不同的 ceph pool 獨立使用到不同的 crushmap 分組 (即使用不同的 osd 磁盤)
從物理上隔離了不同的 pool 數據讀寫 IO
ceph 結構參考
hostA | hostB | hostC | 備註 |
osd.0 | osd.4 | osd.8 | 把 osd0 ~ osd.11 劃分到 root=default 根中 只供 volumes pool 調用 |
osd.1 | osd.5 | osd.9 | |
osd.2 | osd.6 | osd.10 | |
osd.3 | osd.7 | osd.11 | |
osd.12 | osd.14 | osd.16 | 把 osd14 ~ osd.17 劃分到 root=noah 根中 只供 noah pool 調用 |
osd.13 | osd.15 | osd.17 |
crushmap 管理
添加 bucket
ceph osd crush add-buc