原创 ceph mon 添加

以下操作在要添加monitor的節點上執行一、導出monitor的密鑰ceph auth get mon. -o /tmp/keyring二、監視圖ceph mon getmap -o /tmp/mapfile三、導入密鑰和監視圖ceph-

原创 刪除osd節點

刪除osd的正確方式有如下(對比分析) 在ceph的集羣當中關於節點的替換的問題,一直按照以前的方式進行的處理,處理的步驟如下:停止osd進程/etc/init.d/ceph stop osd.0這一步是停止osd的進程,讓其他的osd知道

原创 我的友情鏈接

51CTO博客開發紅帽成長足跡宗軍網絡工程師

原创 ceph上weight和reweight的區別

今天簡單研究了下weight和reweight對pg的影響通過ceph osd tree 可以查看到 weight 和reweight的值weight的權重和磁盤的容量有關係 一般定義1TB爲1.0 500G爲0.5 也不會因爲容量的減少而

原创 pg inconsistent

ceph 狀態突然 error [root@ceph-6-11 ~]# ceph health detail HEALTH_ERR 1 pgs inconsistent; 1 scrub errors; pg 2.37c is activ

原创 linux的反向路由檢測

背景環境是 我們開始在我們的雲平臺上開始集成SLB測試發現在現有的兩個網卡上不同網段 不能讓其它網段正常訪問 查其原因後是路由反向檢測默認開啓 需要關閉 就可以正常通訊echo 0 > /proc/sys/net/ipv4/conf/bon

原创 Ceph的osd節點問題

背景ceph的整體讀寫性能下降 經查看 ceph osd perf 有一塊osd延遲較大在200多ms以上 決定剔除後 整體性能恢復 說明osd的一個節點問題有時會影響整體ceph的性能 ceph --admin-daemon /var/r

原创 openstack rabbitmq cluster

rabbitmqctl cluster_status11.2 Run the followingcommands on each node except the first one:rabbitmqctl stop_apprabbitmqc

原创 nf_conntrack

(服務器用的阿里雲主機,CentOS 7.3,似乎不管內存多少阿里雲都把 conntrack_max 設成 65536) 症狀CentOS服務器,負載正常,但請求大量超時,服務器/應用訪問日誌看不到相關請求記錄。 在dmesg或/var/l

原创 ceph的讀寫性能測試

block讀寫順序讀寫數據線程數IOPS帶寬速度運行時間 s4K Rados隨機讀174M161556360.7961MB/s2順序讀174M161319951.5621MB/s2隨機寫174M1614865.80794MB/s304K R

原创 osd 節點替換

從crushmap中刪除操作調整osd的crush weightceph osd crush reweight osd.0 0.1說明:這個地方如果想慢慢的調整就分幾次將crush 的weight 減低到0 ,這個過程實際上是讓數據不分佈在

原创 刪除 Ceph 集羣異常客戶端 watcher

在Ceph集羣日常運維中,管理員可能會遇到有的image刪除不了的情況,有一種情況是由於image下有快照信息,只需要先將快照信息清除,然後再刪除該image即可,還有一種情況是因爲該image仍舊被一個客戶端在訪問,具體表現爲該image

原创 openstack port創建

openstack mitaka版本需要用到自己的基礎組件 需要預留ip通過network port 但port的ip不在dhcp池裏 需要手動創建1、在控制節點neutron進入命令行後net-list查看網段的id2、port-list

原创 ceph crushmap

此map爲我生成環境 故障域爲rackrack rack-05 {        id -26          # do not change unnecessarily        # weight 78.336        alg

原创 ceph 常用cmd

可以直接縮小 image的大小rbd resize k8s/monitor-grafana-data --size 100G --allow-shrink