如何讓xtrabackup恢復速度提升20倍?

簡介

  Xtrabackup是由percona開源的免費數據庫熱備份軟件,它能對InnoDB數據庫和XtraDB存儲引擎數據庫進行非阻塞的備份,其具備以下一些優點:
  1)備份速度快,物理備份可靠
  2)備份過程不會打斷正在執行的事務
  3)能夠基於壓縮等功能節約磁盤空間和流量
  4)自動備份校驗
  5)還原速度快
  6)可以流傳將備份傳輸到另外一臺機器上
  7)在不增加服務器負載的情況備份數據
  Xtrabackup熱備和恢復原理如下圖所示:


1.jpg  

備份開始時首先會開啓一個後臺檢測進程,實時檢測mysql redo的變化,一旦發現redo中有新的日誌寫入,立刻將日誌記入後臺日誌文件xtrabackup_log中。之後複製innodb的數據文件和系統表空間文件ibdata1,待複製結束後,執行flush tables with read lock操作,複製.frm,MYI,MYD,等文件,最後會發出unlock tables,停止xtrabackup_log。
  恢復階段則啓動xtrabackup內嵌的innodb實例,回放xtrabackup日誌xtrabackup_log,將提交的事務信息變更應用到innodb數據/表空間,同時回滾未提交的事務(這一過程類似innodb的實例恢復)。如圖所示:


2.jpg

  Xtrabackup的增量備份過程和全量類似,只針對增量備份過程中的”增量”進行處理,主要是相對innodb而言,對myisam和其他存儲引擎而言,它仍然是全量備份。
  從備份恢復的流程上看,備份過程主要受拷貝文件和日誌生成速度影響,即和磁盤IO、網絡以及系統壓力有關;恢復過程則主要和IO、併發控制相關,本文下面將主要討論Xtrabackup恢復階段的優化。

現狀

  Xtrabackup的恢復過程實則是調用內嵌innodb的恢復邏輯來實現的(修改了一些參數的默認值,如恢復時buffer pool緩存頁面數目),而innodb的恢復一直以來都不是那麼的高效,社區也有很多innodb崩潰恢復流程的優化方案。
  在實際生產環境中,動輒上T的數據在使用Xtrabackup進行熱備時通常要產生幾十G甚至更大的日誌文件,受限於備份恢復虛擬機的配置,這樣的備份在恢復時往往需要數個小時,平均恢復速度僅爲1-4M/s(熱數據分佈相關),這樣的速度給現網實例的運維造成了很大的麻煩。

問題

  通常情況下,InnoDB的恢復過程中的內存分配類型爲MEM_HEAP_BUFFER,即在buffer pool中開闢一段內存用於存放日誌記錄,當需要恢復的日誌文件很大時,可能存在內存不足的情況,根據內存是否充足把日誌的處理分爲兩種方式:
  1、開闢的內存足夠所有保存日誌記錄  


3.jpg

  在內存足夠的情況下,日誌的解析和回放是串行的,而日誌的回放是並行的,可能參與的線程包括主線程以及各個IO線程,極端情況下可能會有log_checkpoint線程以及其他工作線程。
  2、開闢的內存不足以保存所有的日誌記錄  


4.jpg

  在內存不足的情況下,日誌解析需要進行兩輪,第一輪解析到某個lsn之後發現內存不足,後續的解析將放棄保存log record到hash table,直到解析完所有日誌,最後清空這一輪生成的hash table,第一輪留給下一輪解析的遺產是所有需要打開tablespace的信息和所有DDL相關信息,用於恢復開始時的tablespace構建;第二輪在發現內存不足時,把已經解析的日誌全部應用到頁面上,此時ibuf的merge是被禁止的(不能產生新的日誌),這就需要在應用完日誌之後將所有髒頁刷盤,並失效buffer pool中的所有頁面,最後清空hash table,進行後續日誌的解析和回放,剩餘邏輯和1相同。
  從實際情況看,整體日誌恢復速度較慢,平均1-4M每秒,對於數百兆的崩潰恢復以及更大的備份日誌恢復來說,這樣的速度遠遠不夠。
  從以上分析來看,日誌解析回放的恢復過程存在以下幾個可以優化的地方:
  1、日誌的解析
  2、日誌內存不足時的page flush
  3、日誌解析和回放的並行

方案

日誌解析

  log record中沒有日誌長度信息,由於通常情況下日誌是格式化的,解析日誌文件推進的過程中需要使用簡單的元數據結構體傳入到處理函數中,從而計算單條日誌的邊界,恢復的過程就是從last checkpoint lsn逐條推進到沒有合法日誌爲止,這種元數據結構實則爲dict_index_t和dict_table_t結構,日誌解析和回放過程中都需要使用這種數據結構,InnoDB的對它們的處理比較粗放,每條log record解析和回放都需要malloc和free以上一對結構。
  在MySQL社區這兩個問題已經被提出,同時也提出瞭解決方案,如:
  1、對應(Bug#82937),解決方案爲在log record header中增加長度信息,如下圖所示: 


5.jpg

  如此,log record的邊界依靠length即可求到,省去大量元數據結構的malloc和free,以及解析日誌格式的函數調用,這一優化可提升解析性能60%。
  2、對應(Bug#82176),log record在回放時確實需要元數據結構,但需要的信息遠遠少於Runtime,根據分析,相同列數的表可以共享此數據結構,在使用前重新初始化一些屬性即可,這樣就可以通過引入元數據cache來減少不必要的malloc和free。產品實測中,cache對單線程解析有30%+的提升,同樣社區也有阿里團隊類似的優化貢獻。
  但從解析角度出發,優化前單核速度可以達到60-80M/s,優化後可以達到120-160M/s,絕對速度已經相當可觀。
  以innodb5.6的恢復爲基準,通常情況下日誌文件要被掃描三遍,即解析三次,即便有120M/s的速度,重複的掃描也浪費了一部分的時間,如果對日誌解析速度有更高的要求,爲了追求更高的解析速度,可以引入多線程並行解析,而能否並行解析的關鍵在於日誌如何有效的切分成若干個完整的分片。
  並行解析的可行性建立在能否在以LOG BLOCK組織的連續的日誌文件中劃分出完整的日誌片段這個問題上。InnoDB日誌解析的預讀緩衝區爲RECV_SCAN_SIZE(64K),其實也是分次讀取和解析的,但其能通過邊界計算處理跨越64K邊界的日誌記錄,跨越邊界的整個日誌記錄將在下一個64K中全部讀取,相當於下一次讀取的日誌塊和上一次是有重疊的。
  由此,我們按照固定大小(LOG BLOCK的整數倍,如10M)切分日誌塊,第一個分片的第一個BLOCK的起始位置通過checkpoint lsn定位,其餘分片的第一個BLOCK起始位置通過LOG_BLOCK_FIRST_REC_GROUP來確定,如果某個分片內日誌不能完整結束,則向下一個分片移動,直到解析出完整的日誌爲止,分片的移動可能導致兩個分片解析到同一個log record,由於日誌回放是冪等的,所以重複的日誌記錄只要按照lsn有序,多次回放不影響正確性。日誌文件的分片窗口如下圖所示:  


6.jpg

  應用並行解析後的恢復流程將減少大量的解析時間,如下圖所示:  


7.jpg

Page Flush

  以上分析中,我們發現當分配的buffer pool不足以放下所有日誌記錄時(大實例絕大多數會發生),日誌就會被解析多次,然後分批的進行回放,每次回放完成的頁面由於不能執行ibuf merge,只能觸發page cleaner全部刷到磁盤,而且當熱頁面比較分散時,每一輪的回放涉及的頁面遠遠超過Xtrabackup默認的512個頁面的buffer,這就導致產生了大量single page的淘汰,每個頁面都需要調用一次fil_flush(fsync),形成嚴重的性能瓶頸,大實例尤爲嚴重。
  結合現網Xtrabackup進行熱備的方式,發現目前整個備份恢復過程其實是整體完成的(原子的),一次備份(全量或增量)只有完整的恢復完纔算成功,如此就可以在page flush上進行比較巧妙的優化,即將恢復階段所有的page flush改爲只寫文件緩存,而不調用fli_flush,fsync操作交給操作系統批量調度,換句話說就是將同步的刷髒變成了異步,整個恢復完成時fil_close將會把所有未落盤的髒頁全都刷下去,頁面淘汰不再成爲瓶頸,每一輪的回放速度將大大提升。

解析回放並行

  如下圖所示,日誌的解析和回放並行在InnoDB中的大致方案,不同與串行方式,解析過程不再獨立存在,而是與回放線程(寫新日誌)、IO線程以及checkpoint線程併發,這樣的併發受限於InnoDB的一些現有機制,如內存管理、刷髒機制、tablespace以及checkpoint機制等,下面將逐一展開分析:  


8.jpg

  1、內存管理
  InnoDB恢復階段所需內存申請類型爲MEM_HEAP_BUFFER,從buffer pool中劃分一塊內存,大小有限,因此存在先前提到的兩階段解析。由於MEM_HEAP_BUFFER類型的特點,多次申請,統一釋放,如果和回放並行,當內存達到上限時,解析不得不停止下來,等待所有日誌apply結束,回收內存之後再繼續進行解析。
可以將日誌解析和回放理解成生產者和消費者,日誌回放爲消費者,回放過後的日誌記錄即可回收,將內存類型設置爲MEM_HEAP_DYNAMIC,每條日誌記錄解析時malloc自己的內存,回放結束後將其釋放,因爲回放是併發的,總體來說內存是大體穩定的。
  2、新日誌生成
  InnoDB通過恢復階段依然通過log_sys管理日誌,ibuf merge產生的日誌需要寫在同一個日誌文件中,但通常情況下,解析線程不結束解析過程是無法得到系統持久化lsn的,因此新日誌的起始lsn以及寫入日誌文件的offset無法確定,從而解析階段產生新日誌通常是不可能實現的。
  如果在恢復初期不能得到持久化lsn,將會對生成新日誌形成障礙。對於InnoDB的恢復,也有例外存在,如InnoDB如果需要兩階段解析的話,第一階段結束後系統持久化lsn其實已經可以確定;對於Xtrabackup來說,拷貝得到的日誌在拷貝結束時是可以確定結束lsn(即最終持久化的lsn)。因此,對於Xtrabackup的恢復而言,不存在生成新日誌的障礙。
  最後,InnoDB恢復階段log_sys中某些屬性也在恢復邏輯中被使用,如buffer等,和寫日誌邏輯是衝突的,需要將log_sys中有衝突的屬性轉移到recv_sys中實現。
  3、刷髒機制和增量checkpoint
  InnoDB使用flush list管理髒頁面,髒頁面在flush list中以首次變髒時的lsn爲順序排序,每當髒頁被刷盤之後,就從flush list中將其移除,增量checkpoint機制定時掃描flush list中最小的lsn,以此爲checkpoint lsn進行打點,選取打點的lsn必須滿足“在flush list中,小於這個lsn的所有修改涉及的頁面都在這個lsn所屬頁面之前”的原則,這個原則直接依賴於頁面按照首次變髒lsn有序。
  在InnoDB的恢復中,頁面在flush list中的順序不是在解析日誌的時候維護的,而是在具體某個頁面回放完日誌之後才確定的(頁面回放完日誌之後插入到flush list),由於多線程回放,主線程按照hash table的桶順序回放,或者按需回放(讀取某個頁面),因此flush list中髒頁的順序並不完全按照首次修改有序,直到所有的頁面都回放完日誌,最終的flush list的狀態纔是完全正確的狀態,因此,在InnoDB的恢復中,log_checkpoint纔是在所有頁面全部回放完日誌記錄之後進行的。
  解析和回放並行勢必會產生新的日誌,而日誌緩衝區和日誌文件大小是有限的,如果新日誌的產生沒有足夠的空間,此時還不能做log checkpoint,那麼恢復過程可能會卡死;解析和回放並行產生的髒頁,在IO允許的情況下,及時持久化並推進checkpoint,避免恢復過程中異常退出之後再次重新恢復。
  能否在解析日誌時進行checkpoint,根本問題是如何時刻維護flush list的順序。頁面的修改順序就是其在日誌中出現的順序,其順序和首次修改完全等價,因此可以在日誌解析時peek頁面是否在buffer pool中,如果不在則將其load上來,此時不必實際讀取頁面,只需要在flush list中佔一個位置即可,如果從flush list中刷髒頁時頁面還沒有load上來,那麼就必須發生一次同步IO。通過這種方式,可以在解析日誌時一直維護flush list的順序,由此解決恢復階段checkpoint的限制。
  4、Tablespace
  InnoDB恢復時的fil_space信息從日誌記錄中類型爲MLOG_FILE_NAME的日誌獲得,因爲恢復階段SYS_TABLESPACE系統表中的記錄可能是不完整的,MLOG_FILE_NAME類型的記錄在每次tablespace首次變髒或者checkpoint的時候寫入日誌,爲的是在恢復時能夠打開所有需要的tablespace(MySQL 5.7.5引入的優化,先前的版本是打開所有ibd文件來load tablespace)。
  如下圖所示,當最後一次checkpoint發生在lsn爲1000時,T1表在checkpoint之後仍然有修改,而T1表的MLOG_FILE_NAME日誌在寫MLOG_CHECKPOINT之前,在T1的最後一條日誌之後。如果解析和回放併發,當T1的最後一條日誌需要被重放時,T1的FIL_NAME日誌沒有解析到,它的tablespace就不會load,此時重放以及後續的IO可能出現問題;系統表有可能還沒有恢復,所以此時通過dict_load的方式也是不可行的。  


9.jpg

  此外,如果某個表在checkpoint之後存在修改,並且在後續的操作中被drop,如下圖所示,那麼恢復過程可以忽略這個表的日誌,因爲不需要也不可能恢復(物理文件已經刪除,沒有tablespace),這個過程是在recv_init_crash_recovery_spaces()中完成的,它要求先將日誌全部解析,生成完整的FIL_NAME表,然後統籌那些表不需要恢復。 



10.jpg

  如果解析和回放並行,Tablespace的Load可以在解析日誌前通過掃描所有ibd文件,load所有已存在的tablespace方式完成;或者將當前系統表中已存在的表通過dict_load的方式全部加載,即使此時的tablespace是不完整的。此外,對於刪掉或者truncate掉的表,如果在回放日誌時fil_space不存在,或者page no超過tablespace的size,則不回放相關日誌記錄。

實施

  從以上可行性分析來看,解析和回放在InnoDB中從理論上是可以實現並行的,但需要一些關鍵機制的適配,涉及內容比較多,複雜度高,結合性能收益,我們將對實際實施的優化進行取捨。
  從收益來看,假設日誌解析總時間爲Xa,回放總時間爲(10-X)a,在引入dict_index cache以及並行解析日誌之後,整個解析和回放的時間會提升10/(10-(1-0.7/N)*X))倍,其中0.7爲dict_index cache單線程提升的效果,N爲併發解析線程數,由公式可以看到,當解析時間佔比比較大時,增加併發解析線程數,就能大大提升恢復效率;如果回放時間佔比大時,即使將解析和回放並行,收益也是很有限的。
  綜上,鑑於解析和回放並行的高複雜度和有限的收益以及解析和回放代價佔比,目前恢復的優化方案主要針對單線程的解析優化和頁面的刷盤優化,具體實施方案如下:
  1、dict_index cache
  對每一個獨立的解析線程,增加線程級cache(避免不必要的鎖開銷),cache的搜索key爲列數,兩個列數相同的表共享一對dict_index和dict_table結構,使用前需要重新初始化結構上的一些字段。
  對於主線程、若干個IO線程以及可能執行回放任務的checkpoint線程,也增加線程級cache,用於回放階段的優化
  2、控制多次解析
  首先將innodb 5.6中最多掃描日誌三次的機制改爲最多掃描兩次,其實是消除mlog_checkpoint的作用;提供配置參數,配置在熱備產生大量日誌的情況下,跳過第一輪log record加入log hash table的操作,使得第一輪掃描變爲快速構造tablespace,對高負載的小實例熱備有一些作用,參考生成日誌文件大小和buffer pool的大小進行配置。
  3、延遲刷髒
  提供配置參數,配置在恢復階段髒頁刷盤方式,實施異步刷髒。

測試

環境

  開發機:Dev-VD2  


11.jpg

數據庫

  數據庫參數
  port=3306
  max_connections=100
  innodb_buffer_pool_size=4G
  innodb_buffer_pool_instances=2
  innodb_file_per_table=1
  innodb_flush_log_at_trx_commit=0
  innodb_log_buffer_size=512M
  innodb_log_file_size=1G

測試

  目前,所有5.6版本(之前)日誌解析都需要默認進行三次,結合Xtrabackup自身的特點,兩次完全足夠,本章節就不再對比解析三次的測試。(單位ms)


12.jpg  

以上測試均是小實例、虛擬機上的測試對比,這些優化在不同場景下提升幅度各有不同,大部分在30%-75%之間,受系統負載,IO,熱數據分佈等因素影響;現網中一個2T的實例,某次熱備產生20G的日誌,優化後恢復時間從原先的4小時降低到10分鐘,恢復速度大幅提升了20餘倍。

演進

  針對不同場景的實例,可以進一步的深度優化,如前所述的並行解析、日誌格式引入長度信息(需考慮兼容性問題)、結合Xtrabackup自身tablespace處理特點優化tablespace的構建等;InnoDB恢復時日誌相關的內存管理比較粗放,也有優化的空間;此外,恢復階段的鎖如recv_sys的mutex、fli_system的mutex、flush list的mutex以及buffer pool的mutex都有一定的優化空間。
  不管採用何種方式優化,當實例和日誌很大時,解析優化所帶來的效果將會越來越小,其在整個恢復過程中已不再成爲瓶頸,瓶頸一般都會轉移到IO上來,因此後續的優化需要結合特定場景具體分析,有的放矢地進行針對性的優化。


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章