RocketMQ 一行代碼造成消息發送失敗!

1、問題現象


首先接到項目反饋使用 RocketMQ 會出現如下錯誤:


錯誤信息關鍵點:MQBrokerException:CODE:2 DESC:[TIMEOUT_CLEAN_QUEUE]broker busy,start flow control for a while,period in queue:205ms,size of queue:880。

由於項目組並沒有對消息發送失敗做任何補償,導致丟失消息發送失敗,故需要對這個問題進行深層次的探討,並加以解決。

2、問題分析


首先我們根據關鍵字:TIMEOUT_CLEAN_QUEUE 去 RocketMQ 中查詢,去探究在什麼時候會拋出如上錯誤。根據全文搜索如下圖所示:


該方法是在 BrokerFastFailure 中定義的,通過名稱即可以看成其設計目的:Broker端快速失敗機制。

Broker 端快速失敗其原理圖如下:

  • 消息發送者向 Broker 發送消息寫入請求,Broker 端在接收到請求後會首先放入一個隊列中(SendThreadPoolQueue),默認容量爲 10000。

  • Broker 會專門使用一個線程池(SendMessageExecutor)去從隊列中獲取任務並執行消息寫入請求,爲了保證消息的順序處理,該線程池默認線程個數爲1。

如果 Broker 端受到垃圾回收等等因素造成單條寫入數據發生抖動,單個 Broker 端積壓的請求太多從而得不到及時處理,會極大的造成客戶端消息發送的時間延長。

設想一下,如果由於 Broker 壓力增大,寫入一條消息需要500ms甚至超過1s,並且隊列中積壓了5000條消息,消息發送端的默認超時時間爲3s,如果按照這樣的速度,這些請求在輪到 Broker 執行寫入請求時,客戶端已經將這個請求超時了,這樣不僅會造成大量的無效處理,還會導致客戶端發送超時。

故 RocketMQ 爲了解決該問題,引入 Broker 端快速失敗機制,即開啓一個定時調度線程,每隔10毫秒去檢查隊列中的第一個排隊節點,如果該節點的排隊時間已經超過了 200ms,就會取消該隊列中所有已超過 200ms 的請求,立即向客戶端返回失敗,這樣客戶端能儘快進行重試,因爲 Broker 都是集羣部署,下次重試可以發送到其他 Broker 上,這樣能最大程度保證消息發送在默認 3s 的時間內經過重試機制,能有效避免某一臺 Broker 由於瞬時壓力大而造成的消息發送不可用,從而實現消息發送的高可用。

從 Broker 端快速失敗機制引入的初衷來看,快速失敗後會發起重試,除非同一時刻集羣內所有的 Broker 都繁忙,不然消息會發送成功,用戶是不會感知這個錯誤的,那爲什麼用戶感知了呢?難道 TIMEOUT_ CLEAN _ QUEUE 錯誤,Broker 不重試?

爲了解開這個謎團,接下來會採用源碼分析的手段去探究真相。接下來將以消息同步發送爲例揭示其消息發送處理流程中的核心關鍵點。

MQ Client 消息發送端首先會利用網絡通道將請求發送到 Broker,然後接收到請求結果後並調用 processSendResponse 方法對響應結果進行解析,如下圖所示:

在這裏返回的 code 爲 RemotingSysResponseCode . SYSTEM_BUSY。

我們從 proccessSendResponse 方法中可以得知如果 code 爲 SYSTEM_BUSY,該方法會拋出 MQBrokerException,響應 code 爲 SYSTEM_BUSY,其錯誤描述爲開頭部分的錯誤信息。

那我們沿着該方法的調用鏈路,可以找到其直接調用方:DefaultMQProducerImpl 的 sendKernelImpl,我們重點考慮如果底層方法拋出  MQBrokerException 該方法會如何處理。

其關鍵代碼如下圖所示:

可以看出在 sendKernelImpl 方法中首先會捕捉異常,先執行註冊的鉤子函數,即就算執行失敗,對應的消息發送後置鉤子函數也會執行,然後再原封不動的將該異常向上拋出。

sendKernelImpl 方法被 DefaultMQProducerImpl 的 sendDefaultImpl 方法調用,下面是其核心實現截圖:

從這裏可以看出 RocketMQ 消息發送高可用設計一個非常關鍵的點,重試機制,其實現是在 for 循環中 使用 try catch 將 sendKernelImpl 方法包裹,就可以保證該方法拋出異常後能繼續重試。從上文可知,如果 SYSTEM_BUSY 會拋出 MQBrokerException,但發現只有上述幾個錯誤碼纔會重試,因爲如果不是上述錯誤碼,會繼續向外拋出異常,此時 for 循環會被中斷,即不會重試。

這裏非常令人意外的是連 SYSTEM_ERROR 都會重試,卻沒有包含 SYSTEM_BUSY,顯然違背了快速失敗的設計初衷,故筆者斷定,這是 RocketMQ 的一個BUG,將 SYSTEM_BUSY 遺漏了,後續會提一個 PR,增加一行代碼,將 SYSTEM_BUSY 加上即可。

問題分析到這裏,該問題應該就非常明瞭。

3、解決方案


如果大家在網上搜索 TIMEOUT_CLEAN_QUEUE 的解決方法,大家不約而同提出的解決方案是增加 waitTimeMillsInSendQueue 的值,該值默認爲 200ms,例如將其設置爲 1000s 等等,以前我是反對的,因爲我的認知裏 Broker 會重試,但現在發現 Broker 不會重試,所以我現在認爲該 BUG未解決的情況下適當提高該值能有效的緩解。

但這是並不是好的解決方案,我會在近期向官方提交一個PR,將這個問題修復,建議大家在公司儘量對自己使用的版本進行修改,重新打一個包即可,因爲這已經違背了 Broker 端快速失敗的設計初衷。

但在消息發送的業務方,儘量自己實現消息的重試機制,即不依賴 RocketMQ 本身提供的重試機制,因爲受制於網絡等因素,消息發送不可能百分之百成功,建議大家在消息發送時捕獲一下異常,如果發送失敗,可以將消息存入數據庫,再結合定時任務對消息進行重試,盡最大程度保證消息不丟失。

推薦閱讀

國外程序員用的火熱的Vavr是什麼鬼?讓函數式編程更簡單!

原創推薦:日誌規範多重要,這篇文章告訴你!

原創推薦:我們已經不用AOP做操作日誌了!

ElasticSearch 使用 Logstash 從 MySQL 中同步數據

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章