記一次ceph心跳機制異常的案例

現象:部署使用ceph集羣的時候遇到一個情況,在大規模集羣的時候,有節點網絡或者osd異常時,mon遲遲不把該異常的osd標down,一直等待900s後mon發現該節點的osd一直沒有更新pgmap才把異常的osd標down,並更新osdmap擴散出去。但這個900s內,客戶端IO還是會一直往異常的osd上去下發,導致io超時,並進一步影響上次的業務。

原因分析:
我們在mon的日誌裏面也看到了和異常osd建立心跳的其他osd向mon報告該osd的異常,但mon確實在短時間內沒有這些osd標down。查看了一些相關網絡和書籍的資料後,才發現了問題。
首先我們關注osd配置中幾個相關的配置項:
(1)osd_heartbeat_min_peers:10
(2)mon_osd_min_down_reporters:2
(3)mon_osd_min_down_reporters_ratio:0.5
以上參數的之都可以在ceph集羣節點上執行ceph daemon osd.x config show查看(x是你的集羣osd的id)。
問題出現的原因是什麼呢?
問題現場的集羣部署時每個osd會隨機選取10個peer osd來作爲建立心跳的對象,但在ceph的機制中,這個10個osd不一定保證能夠全部分散在不同的節點上。故在有osd異常的時候,向mon報該osd down的reporter有概率不滿足ratio=0.5,即reporter數量未過集羣存儲host數量的一半,這樣異常osd就無法通過osd之間的心跳報活機制快速標down,直到900s後mon發現這個osd pgmap一直不更新才識別到異常(另一種機制,可以看做是給osd心跳保活機制做最後的保險),並通過osdmap擴散出來。而這個900s對於上層業務來說,往往是不可接受的。
但這個現象對於小規模集羣幾乎不會出現,比如以一個3節點ceph集羣爲例:
記一次ceph心跳機制異常的案例
如果與其他節點osd建立的peer數量小於了osd_heartbeat_min_peers,那麼osd會繼續選擇與自己較近的osd建立心跳連接(即使是和自己位於同一個節點上。)
對於osd心跳機制,網上有人總結過幾點要求:
(1)及時:建立心跳的osd可以在秒級發現其他osd的異常並上報monitor,monitor在幾分鐘內把該osd標down下線
(2)適當的壓力:不要以爲peer越多越好,特別是現在實際應用場景中osd監聽和發送心跳報文的網絡鏈路都是和public network以及cluster network共用的,心跳連接建立過多會極大影響系統的性能。Mon有單獨與osd維持心跳的方式,但ceph通過osd之間的心跳保活,將這種壓力分散到各個osd上,極大減小了中心節點mon的壓力。
記一次ceph心跳機制異常的案例
(3)容忍網絡抖動:mon收集到osd的彙報之後,會經過週期的等待幾個條件,而不是貿然把osd標down。這些條件有目標osd的實效時間大於通過固定量osd_heartbeat_grace和歷史網絡條件確定的閾值,以及上報的主機數是否達到min_reporters和min_reporters_ratio,以及在一定時間內,失效彙報沒有被源報告者取消掉等。
(4)擴散機制:2種實現,mon主動擴散osdmap,還有一種惰性的是osd和client自己來取。爲了讓異常信息及時讓client和其他osd感知到,一般是前一種實現比較好。

總結和啓示:
2個方向可以做出改變。
(1)對於原有機制中取集羣存儲節點數量的0.5作爲min_reporter_ratio明顯不合理,應該採用的是這個osd與多少host上的osd建立心跳(取host數量),那就由0.5*建立心跳的host總數來作爲判斷依據。
(2)一些場景下,我們會自己定義一些數據存放的邏輯區域,通過對crush的層級結構的利用,例如在一個ceph集羣中定義多個邏輯區域,一個數據的分片或者副本只存在於一個邏輯區域中,那相關osd建立心跳連接的範圍就需要相應精簡和準確。

現在ceph實現的osd心跳機制還是會有很多問題,不知道後面會不會有新的機制替換當前機制,讓我們拭目以待。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章