深度分析 | MGR相同GTID產生不同transaction故障分析

前 言


本文是由愛可生運維團隊出品的「MySQL專欄」系列文章,內容來自於運維團隊一線實戰經驗,涵蓋MySQL各種特性的實踐,優化案例,數據庫架構,HA,監控等,有掃雷功效。


愛可生開源社區持續運營維護的小目標:


  • 每週至少推送一篇高質量技術文章

  • 每月研發團隊發佈開源組件新版

  • 每年1024開源一款企業級組件

  • 2019年至少25場社區活動


歡迎大家持續關注~


MGR作爲MySQL原生的高可用方案,它的基於共識協議的同步和決策機制,看起來也更爲先進。吸引了一票用戶積極嘗試,希望通過MGR架構解決RPO=0的高可用切換。在實際使用中經常會遇到因爲網絡抖動的問題造成集羣故障,最近我們某客戶就遇到了這類問題,導致數據不一致。

問題現象


這是在生產環境中一組MGR集羣,單主架構,我們可以看到在相同的GTID86afb16f-1b8c-11e8-812f-0050568912a4:57305280下,本應執行相同的事務,但binlog日誌顯示不同事務信息。

  • Primary節點binlog:


SET @@SESSION.GTID_NEXT= '86afb16f-1b8c-11e8-812f-0050568912a4:57305280'/*!*/;
# at 637087357
#190125 15:02:55 server id 3136842491 end_log_pos 637087441 Query
thread_id=19132957 exec_time=0 error_code=0
SET TIMESTAMP=1548399775/*!*/;
BEGIN
/*!*/;
# at 637087441
#190125 15:02:55 server id 3136842491 end_log_pos 637087514 Table_map:
`world`.`IC_WB_RELEASE` mapped to number 398
# at 637087514
#190125 15:02:55 server id 3136842491 end_log_pos 637087597 Write_rows: table id 398
flags: STMT_END_F
BINLOG '
n7RKXBP7avi6SQAAABov+SUAAI4BAAAAAAEAB2ljZW50ZXIAFUlDX1FVRVJZX1VTRVJDQVJEX0xP
'/*!*/;
### INSERT INTO `world`.`IC_WB_RELEASE`
### SET



  • Secondary節點binlog:


SET @@SESSION.GTID_NEXT= '86afb16f-1b8c-11e8-812f-0050568912a4:57305280'/*!*/;
# at 543772830
#190125 15:02:52 server id 3136842491 end_log_pos 543772894 Query
thread_id=19162514 exec_time=318 error_code=0
SET TIMESTAMP=1548399772/*!*/;
BEGIN
/*!*/;
# at 543772894
#190125 15:02:52 server id 3136842491 end_log_pos 543772979 Table_map:
`world`.`IC_QUERY_USERCARD_LOG` mapped to number 113
# at 543772979
#190125 15:02:52 server id 3136842491 end_log_pos 543773612 Delete_rows: table id
113 flags: STMT_END_F
BINLOG '
nLRKXBP7avi6VQAAADNRaSAAAHEAAAAAAAEAB2ljZW50ZXIADUlDX1dCX1JFTEVBU0UACw8PEg8
'/*!*/;
### DELETE FROM `world`.`IC_QUERY_USERCARD_LOG`
### WHERE



從以上信息可以推測,primary節點在這個GTID下對world.IC_WB_RELEASE表執行了insert操作事件沒有同步到secondary節點,secondary節點收到主節點的其他事件,造成了數據是不一致的。當在表IC_WB_RELEASE發生delete操作時,引發了下面的故障,導致從節點脫離集羣。



2019-01-28T11:59:30.919880Z 6 [ERROR] Slave SQL for channel 'group_replication_applier': Could not execute Delete_rows event on table `world`.`IC_WB_RELEASE`; Can't find record in 'IC_WB_RELEASE', Error_code: 1032; handler error HA_ERR_KEY_NOT_FOUND, Error_code: 1032
2019-01-28T11:59:30.919926Z 6 [Warning] Slave: Can't find record in 'IC_WB_RELEASE' Error_code: 1032
2019-01-28T11:59:30.920095Z 6 [ERROR] Plugin group_replication reported: 'The applier thread execution was aborted. Unable to process more transactions, this member will now leave the group.'
2019-01-28T11:59:30.920165Z 6 [ERROR] Error running query, slave SQL thread aborted. Fix the problem, and restart the slave SQL thread with "SLAVE START". We stopped at log 'FIRST' position 271.
2019-01-28T11:59:30.920220Z 3 [ERROR] Plugin group_replication reported: 'Fatal error during execution on the Applier process of Group Replication. The server will now leave the group.'
2019-01-28T11:59:30.920298Z 3 [ERROR] Plugin group_replication reported: 'The server was automatically set into read only mode after an error was detected.'



問題分析


  • 1. 主節點在向從節點同步事務時,至少有一個GTID爲86afb16f-1b8c-11e8-812f-0050568912a4:57305280(執行的是insert操作)的事務沒有同步到從節點,此時從實例還不存在這個GTID;於是主實例GTID高於從實例。數據就已經不一致了。

  • 2. 集羣業務正常進行,GTID持續上漲,新上漲的GTID同步到了從實例,佔用了86afb16f-1b8c-11e8-812f-0050568912a4:57305280這個GTID,所以從實例沒有執行insert操作,少了一部分數據。

  • 3. 主節點對GTID爲86afb16f-1b8c-11e8-812f-0050568912a4:57305280執行的insert數據進行delete,而從節點由於沒有同步到原本的insert操作;沒有這部分數據就不能delete,於是脫離了集羣。


對於該故障的分析,我們要從主從實例GTID相同,但是事務不同的原因入手,該問題猜測與bug(bugs.mysql.com/bug.php?)相關,我們針對MGR同步事務的時序做如下分析。


相關知識背景


MGR全組同步數據的Xcom組件是基於paxos算法的實現;每當提交新生事務時,主實例會將新生事務發送到從實例進行協商,組內協商通過後全組成員一起提交該事務;每一個節點都以同樣的順序,接收到了同樣的事務日誌,所以每一個節點以同樣的順序回放了這些事務,最終組內保持了一致的狀態。


paxos包括兩個角色:


  • 提議者(Proposer):主動發起投票選主,允許發起提議。

  • 接受者(Acceptor):被動接收提議者(Proposer)的提議,並記錄和反饋,或學習達成共識的提議。


paxos達成共識的過程包括兩個階段:


  • 第一階段(prepare)


  • a:提議者(Proposer)發送prepare請求,附帶自己的提案標識(ballot,由數值編號加節點編號組成)以及value值。組成員接收prepare請求;

  • b:如果自身已經有了確認的值,則將該值以ack_prepare形式反饋;在這個階段中,Proposer收到ack回覆後會對比ballot值,數值大的ballot會取代數值小的ballot。如果收到大多數應答之後進入下一個階段。


  • 第二階段(accept)


  • a:提議者(Proposer)發送accept請求

  • b:接收者(Acceptor)收到請求後對比自身之前的bollat是否相同以及是否接收過value值。如果未接受過value值 以及ballot相同,則返回ack_accept,如果接收過value值,則選取最大的ballot返回ack_accept。

  • c:之後接受相同value值的Proposer節點發送learn_op,收到learn_op節點的實例表示確認了數據修改,傳遞給上層應用。


針對本文案例我們需要強調幾個關鍵點:


  • 1. 該案例最根本的異常對比發生在第二次提案的prepare階段。

  • 2. prepare階段的提案標識由數值編號和節點編號兩部分組成;其中數值編號類似自增長數值,而節點編號不變。


分析過程


結合paxos時序,我們對案例過程進行推測:



Tips:以下分析過程請結合時序圖操作步驟觀看

建議點開放大,效果更清晰 ^ ^


1. 【step1】primary節點要執行對錶world.IC_WB_RELEASE的insert操作,向組內發送假設將ballot設置爲(0.0)以及將value值world.IC_WB_RELEASE的prepare請求,並收到大多數成員的ack_prepare返回,於是開始發送accept請求。primary節點將ballot(0.0)的提案信息發送至組內,仍收到了大多數成員ack_accept(ballot=0.0value=world.IC_WB_RELEASE)返回。然後發送learn_op信息【step3】。


2. 同時其他從節點由於網絡原因沒有收到主實例的的learn_op信息【step3】,而其中一臺從實例開始新的prepare請求【step2】,請求value值爲no_op(空操作)ballot=1.1(此編號中節點編號是關鍵,該secondary節點編號大於primary節點編號,導致了後續的問題,數值編號無論誰大誰小都要被初始化)。


其他的從實例由於收到過主節點的value值;所以將主節點的(ballot=0.0,value=world.IC_WB_RELEASE)返回;而收到的ack_prepare的ballot值的數值符號全組內被初始化爲0,整個ballot的大小完全由節點編號決定,於是從節點選取了ballot較大的該實例value值作爲新的提案,覆蓋了主實例的value值並收到大多數成員的ack_accept【step2】。並在組成員之間發送了learn_op信息【step3】,跳過了主實例提議的事務。


從源碼中可以看到關於handle_ack_prepare的邏輯。



handle_ack_prepare has the following code:
    if (gt_ballot(m->proposal,p->proposer.msg->proposal))
        {
            replace_pax_msg(&p->proposer.msg, m);
            ...
            }



3. 此時,主節點在accept階段收到了組內大多數成員的ack_accept並收到了 自己所發送的learn_op信息,於是把自己的提案(也就是binlog中對錶的insert操作)提交【step3】,該事務GTID爲86afb16f-1b8c-11e8-812f-0050568912a4:57305280。而其他節點的提案爲no_op【step3】,所以不會提交任何事務。此時主實例GTID大於其他從實例的。


4. 主節點新生GTID繼續上漲;同步到從實例,佔用了從實例的86afb16f-1b8c-11e8-812f-0050568912a4:57305280這個GTID,於是產生了主節點與從節點binlog中GTID相同但是事務不同的現象。


5. 當業務執行到對錶world.IC_WB_RELEASE的delete操作時,主實例能進行操作,而其他實例由於沒有insert過數據,不能操作,就脫離了集羣。


▽過程總結:


  • 1. 舊主發送prepare請求,收到大多數ack,進入accept階段,收到大多數ack。

  • 2. 從實例由於網絡原因沒有收到learn_op信息。

  • 3. 其中一臺從實例發送新的prepare請求,value爲no_op。

  • 4. 新一輪的prepare請求中,提案標識的數值編號被初始化,新的提案者大於主實例,從實例選取新提案,執行空操作,不寫入relay-log。代替了主實例的事務,使主實例GTID大於從實例。

  • 5. 集羣網絡狀態恢復,新生事物正常同步到從實例,佔用了本該正常同步的GTID,使集羣中主節點與從節點相同GTID對應的事務時不同的。


結論


針對此問題我們也向官方提交SR,官方已經反饋社區版MySQL 5.7.26和MySQL 8.0.16 中會修復,如果是企業版客戶可以申請最新的hotfix版本。


在未升級 MySQL 版本前,若再發生此類故障,在修復時需要人工檢查,檢查切換時binlog中 GTID 信息與新主節點對應 GTID 的信息是否一致。如果不一致需要人工修復至一致狀態,如果一致纔可以將被踢出的原主節點加回集羣。


所以正在使用了MGR 5.7.26之前社區版的DBA同學請注意避坑


使用指南系列


| DBLE系列公開課

DBLE核心研發主講:MySQL分佈式中間件公開課開課啦

技術分享 | MyCat的坑如何在分佈式中間件DBLE上改善(內含視頻鏈接)

| 使用指南

深度分析 | MyCat與DBLE的對比性能調

開源分佈式中間件 DBLE 快速入門指南

DBLE 自定義拆分算法
DBLE Server.xml 配置解析

DBLE Schema.xml 配置解析

DBLE rule.xml 配置解析

| 深度分析

DBLE和Mycat跨分片查詢結果不一致案例分析

基於Xtrabackup及可傳輸表空間實現多源數據恢復

[缺陷分析] Table cache 導致 MySQL 崩潰



開源分佈式中間件DBLE
社區官網:opensource.actionsky.com
GitHub主頁:github.com/actiontech/d
技術交流羣:669663113


開源數據傳輸中間件DTLE
社區官網:opensource.actionsky.com
GitHub主頁:github.com/actiontech/d
技術交流羣:852990221



發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章