好險!一入職,就遇到MySQL這麼大Bug!差點背鍋走人

推薦閱讀:

作者:騰訊數據庫技術
來源:http://r6e.cn/df8b

今年,這種情況,有時候不找好下家還真不敢跳,這不,前段時間剛跳到新東家,剛辦入職那天,就遇上事了,真的是嚇出一身冷汗(老大一直盯着我,說要快速解決這個問題),差點被(背)開(鍋)了....

情況如何?且聽我下面慢慢道來!!!希望對大家有所幫助與借鑑。

問題描述

線上有個重要Mysql客戶的表在從5.6升級到5.7後,master上插入過程中出現"Duplicate key"的錯誤,而且是在主備及RO實例上都出現。

以其中一個表爲例,遷移前通過“show create table” 命令查看的auto increment id爲1758609, 遷移後變成了1758598,實際對遷移生成的新表的自增列用max求最大值爲1758609。

用戶採用的是Innodb引擎,而且據運維同學介紹,之前碰到過類似問題,重啓即可恢復正常。

內核問題排查

由於用戶反饋在5.6上訪問正常,切換到5.7後就報錯。因此,首先得懷疑是5.7內核出了問題,因此第一反應是從官方bug list中搜索一下是否有類似問題存在,避免重複造車。經過搜索,發現官方有1個類似的bug,這裏簡單介紹一下該bug。

背景知識

Innodb引擎中的auto increment 相關參數及數據結構。

主要參數包括:innodb_autoinc_lock_mode用於控制獲取自增值的加鎖方式,auto_increment_increment, auto_increment_offset用於控制自增列的遞增的間隔和起始偏移。

主要涉及的結構體包括:數據字典結構體,保存整個表的當前auto increment值以及保護鎖;事務結構體,保存事務內部處理的行數;handler結構體,保存事務內部多行的循環迭代信息。

背景知識2

mysql及Innodb引擎中對autoincrement訪問及修改的流程

(1) 數據字典結構體(dict_table_t)換入換出時對autoincrement值的保存和恢復。換出時將autoincrement保存在全局的的映射表中,然後淘汰內存中的dict_table_t。換入時通過查找全局映射表恢復到dict_table_t結構體中。相關的函數爲dict_table_add_to_cache及dict_table_remove_from_cache_low。(2) row_import, table truncate過程更新autoincrement。(3) handler首次open的時候,會查詢當前表中最大自增列的值,並用最大列的值加1來初始化表的data_dict_t結構體中的autoinc的值。(4) insert流程。相關對autoinc修改的堆棧如下:

ha_innobase::write_row:write_row的第三步中調用handler句柄中的update_auto_increment函數更新auto increment的值。

(5) update_row。對於”INSERT INTO t (c1,c2) VALUES(x,y) ON DUPLICATE KEY UPDATE”語句,無論唯一索引列所指向的行是否存在,都需要推進auto increment的值。相關代碼如下:

if (error == DB_SUCCESS

從我們的實際業務流程來看,我們的錯誤只可能涉及insert及update流程。

BUG 76872 / 88321: "InnoDB AUTO_INCREMENT produces same value twice"

(1) bug概述:當autoinc_lock_mode大於0,且auto_increment_increment大於1時,系統剛重啓後多線程同時對錶進行insert操作會產生“duplicate key”的錯誤。(2) 原因分析:重啓後innodb會把autoincrement的值設置爲max(id) + 1。

此時,首次插入時,write_row流程會調用handler::update_auto_increment來設置autoinc相關的信息。首先通過ha_innobase::get_auto_increment獲取當前的autoincrement的值(即max(id) + 1),並根據autoincrement相關參數修改下一個autoincrement的值爲next_id。

當auto_increment_increment大於1時,max(id) + 1 會不大於next_id。handler::update_auto_increment獲取到引擎層返回的值後爲了防止有可能某些引擎計算自增值時沒有考慮到當前auto increment參數,會重新根據參數計算一遍當前行的自增值,由於Innodb內部是考慮了全局參數的,因此handle層對Innodb返回的自增id算出的自增值也爲next_id,即將會插入一條自增id爲next_id的行。

handler層會在write_row結束的時候根據當前行的值next_id設置下一個autoincrement值。如果在write_row尚未設置表的下一個autoincrement期間,有另外一個線程也在進行插入流程,那麼它獲取到的自增值將也是next_id。這樣就產生了重複。

(3) 解決辦法:引擎內部獲取自增列時考慮全局autoincrement參數,這樣重啓後第一個插入線程獲取的自增值就不是max(id) + 1,而是next_id,然後根據next_id設置下一個autoincrement的值。由於這個過程是加鎖保護的,其他線程再獲取autoincrement的時候就不會獲取到重複的值。

通過上述分析,這個bug僅在autoinc_lock_mode > 0 並且auto_increment_increment > 1的情況下會發生。實際線上業務對這兩個參數都設置爲1,因此,可以排除這個bug造成線上問題的可能性。

現場分析及復現驗證

既然官方bug未能解決我們的問題,那就得自食其力,從錯誤現象開始分析了。

(1) 分析max id及autoincrement的規律 由於用戶的表設置了ON UPDATE CURRENT_TIMESTAMP列,因此可以把所有的出錯的表的max id、autoincrement及最近更新的幾條記錄抓取出來,看看是否有什麼規律。抓取的信息如下:

乍看起來,這個錯誤還是很有規律的,update time這一列是最後插入或者修改的時間,結合auto increment及max id的值,現象很像是最後一批事務只更新了行的自增id,沒有更新auto increment的值。

聯想到【官方文檔】中對auto increment用法的介紹,update操作是可以只更新自增id但不觸發auto increment推進的。按照這個思路,我嘗試復現了用戶的現場。復現方法如下:

同時在binlog中,我們也看到有update自增列的操作。如圖:

不過,由於binlog是ROW格式,我們也無法判斷這是內核出問題導致了自增列的變化還是用戶自己更新所致。因此我們聯繫了客戶進行確認,結果用戶很確定沒有進行更新自增列的操作。

那麼這些自增列到底是怎麼來的呢?

(2) 分析用戶的表及sql語句 繼續分析,發現用戶總共有三種類型的表

hz_notice_stat_sharding

這三種表都有自增主鍵。

但是前面兩種都出現了autoinc錯誤,唯獨hz_freeze_balance_sharding表沒有出錯。難道是用戶對這兩種表的訪問方式不一樣?抓取用戶的sql語句,果然,前兩種表用的都是replace into操作,最後一種表用的是update操作。難道是replace into語句導致的問題?搜索官方bug, 又發現了一個疑似bug。

bug #87861: “Replace into causes master/slave have different auto_increment offset values”

原因:

(1) Mysql對於replace into實際是通過delete + insert語句實現,但是在ROW binlog格式下,會向binlog記錄update類型日誌。Insert語句會同步更新autoincrement,update則不會。(2) replace into在Master上按照delete+insert方式操作, autoincrement就是正常的。基於ROW格式複製到slave後,slave機上按照update操作回放,只更新行中自增鍵的值,不會更新autoincrement。

因此在slave機上就會出現max(id)大於autoincrement的情況。此時在ROW模式下對於insert操作binlog記錄了所有的列的值,在slave上回放時並不會重新分配自增id,因此不會報錯。但是如果slave切master,遇到Insert操作就會出現 “Duplicate key” 的錯誤。

(3) 由於用戶是從5.6遷移到5.7,然後直接在5.7上進行插入操作,相當於是slave切主,因此會報錯。

解決方案

業務側的可能解決方案:

  • (1) binlog改爲mixed或者statement格式。
  • (2) 用Insert on duplicate key update代替replace into。

內核側可能解決方案:

心得

  • (1) autoincrement的autoinc_lock_mode及auto_increment_increment這兩個參數變化容易導致出現重複的key,使用過程中要儘量避免動態的去修改。

  • (2) 在碰到線上的問題時,首先應該做好現場分析,明確故障發生的場景、用戶的SQL語句、故障發生的範圍等信息,同時要對涉及實例的配置信息、binlog甚至實例數據等做好備份以防過期丟失。

只有這樣才能在找官方bug時精準的匹配場景,如果官方沒有相關bug,也能通過已有線索獨立分析。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章