CentOS 7.6構建MySQL PXC高可用集羣

一、Percona XtraDB Cluster相關概念及原理:

1、Percona XtraDB Cluster簡介:

Percona XtraDB Cluster是基於Galera協議的MySQL高可用集羣架構。GaleraCodership提供的多主數據同步複製機制,具有高可用性,方便擴展,可以實現多個MySQL節點間的數據同步複製以及讀寫,並且可保障數據庫的服務高可用及數據一致性。基於Galera的高可用方案主要有MariaDB Galera ClusterPercona XtraDB Cluster(簡稱PXC)。PXC屬於一套近乎完美的MySQL高可用集羣解決方案,相比那些傳統的基於主從複製模型的集羣架構MHAMM+KeepalivedGalera Cluster最突出的特點就是解決了詬病已久的數據複製延遲問題,基本上可以達到實時同步,而且節點與節點之間,它們相互的關係是對等的。本身Galera Cluster也是一種多主架構,如下圖所示:

image.png

image.png

要搭建PXC架構至少需要3MySQL實例來組成一個集羣,3個實例之間不是主從模式,而是各自爲主,所以三者是對等關係,不分從屬,這就叫multi-master架構。客戶端寫入和讀取數據時,連接哪個實例都是一樣的,讀取到的數據也都是相同的,寫入任意一個實例之後,集羣自身會將新寫入的數據同步到其它實例上,這種架構不共享任何數據,是一種高冗餘架構。

2、PXC原理:

PXC最常使用如下4個端口號:

(1)3306:數據庫對外服務的端口號

(2)4444:請求SST的端口號

(3)4567:組成員之間進行溝通的端口號

(4)4568:用於傳輸IST的端口號

備註:

Ø  SSTState Snapshot Transfer,全量數據傳輸

Ø  ISTIncremental State Transfer,增量數據傳輸

image.png

從上圖中可以看出PXC的操作流程,首先客戶端發起一個事務,該事務先在本地執行,執行完成後發起對事務的提交操作。在提交之前需要將產生的複製寫集廣播出去,然後獲取到一個全局的事務ID號,一併傳送到另一節點上。通過驗證合併數據之後,發現沒有衝突數據,執行apply_cbcommit_cb操作,否則就需要取消(discard)此次事務的操作。而當前server節點通過驗證之後,執行提交操作,並返回OK,如果驗證沒通過,則執行回滾。當然在生產中至少要有三個節點的集羣環境,如果其中有一個節點沒有驗證通過,出現了數據衝突,那麼此時採取的方式就是將出現不一致的節點踢出集羣環境,而且它自己會執行shutdown命令,自動關機。

3、PXC架構的優缺點:

(1)優點:

a、實現MySQL集羣架構的高可用性和數據強一致性

b、實現真正的多節點讀寫集羣方案

c、改善了傳統意義上的主從複製延遲問題,基本上達到了實時同步

d、新加入的節點可以自動部署,無需提供手動備份,維護方便

e、多節點寫入,數據庫故障切換容易

(2)缺點:

a、只支持InnoDB引擎,其它存儲引擎的更改不復制,DDL語句在statement級別被複制,並且對mysql.*表的更改會基於此被複制,例如:CREATE USER...語句會被複制,但INSERT INTO mysql.user...語句則不會被複制,可通過wsrep_replicate_myisam參數開啓MyISAM存儲引擎的複製,但這只是一個實驗性的參數

b、新加入節點採用SST時的代價高

c、存在寫擴大問題

d、任何更新事務都需要全局驗證通過,纔會在每個節點庫上執行,集羣性能/吞吐量受限於性能最差的節點,也就是經常說的短板效應

e、由於需要保證數據的一致性,所以在多節點併發寫時,鎖衝突及死鎖問題比較嚴重

f、所有表必須含有主鍵

g、不支持LOCK TABLE等顯式表級別的鎖定操作

h、不支持XA

4、PXC中涉及到的重要概念和核心參數:

(1)集羣中節點的數量:整個集羣中節點數量應該控制在最少3個、最多8個的範圍內。最少3個節點是爲了防止出現腦裂現象,因爲只有在2個節點下才會出現此現象。腦裂現象的標誌就是輸入任何命令,返回的結果都是unknown command。節點在集羣中,會因新節點的加入或故障、同步失效等原因發生狀態的切換。

(2)節點狀態的變化階段:

a、open:節點啓動成功,嘗試連接到集羣時的狀態

b、primary:節點已處於集羣中,在新節點加入並選取donor進行數據同步時的狀態

c、joiner:節點處於等待接收同步文件時的狀態

d、joined:節點完成數據同步工作,嘗試保持和集羣進度一致時的狀態

e、synced:節點正常提供服務時的狀態,表示已經同步完成並和集羣進度保持一致

f、donor:節點處於爲新加入的節點提供全量數據時的狀態

備註:donor節點就是數據的貢獻者,如果一個新節點加入集羣,此時又需要大量數據的SST數據傳輸,就有可能因此而拖垮整個集羣的性能,所以在生產環境中,如果數據量較小,還可以使用SST全量數據傳輸,但如果數據量很大就不建議使用這種方式,可以考慮先建立主從關係,然後再加入集羣。

(3)節點的數據傳輸方式:一種叫SST全量數據傳輸,另一種叫IST增量數據傳輸。SST數據傳輸有xtrabackupmysqldumprsync三種方式,而增量數據傳輸就只有一種方式xtrabackup,但生產環境中一般數據量較小時,可以使用SST全量數據傳輸,但也只使用xtrabackup方法。

(4)GCache模塊:在PXC中一個特別重要的模塊,它的核心功能就是爲每個節點緩存當前最新的寫集。如果有新節點加入進來,就可以把新數據的增量傳遞給新節點,而不需要再使用SST傳輸方式,這樣可以讓節點更快地加入集羣中,涉及如下參數:

a、gcache.size:緩存寫集增量信息的大小,它的默認大小是128MB,通過wsrep_provider_options參數設置,建議調整爲2GB~4GB範圍,足夠的空間便於緩存更多的增量信息。

b、gcache.mem_sizeGCache中內存緩存的大小,適度調大可以提高整個集羣的性能

c、gcache.page_size:如果內存不夠用(GCache不足),就直接將寫集寫入磁盤文件中


二、準備工作(如無特殊說明,3個節點都需要執行如下操作)

1、演示環境:

IP

操作系統

主機名

角色

數據庫版本

安裝方式

192.168.1.143

CentOS   7.6 x86_64

node1

master1

5.7.25-28-57-log   Percona XtraDB Cluster

yum

192.168.1.144

CentOS   7.6 x86_64

node2

master2

5.7.25-28-57-log   Percona XtraDB Cluster

yum

192.168.1.145

CentOS   7.6 x86_64

node3

master3

5.7.25-28-57-log   Percona XtraDB Cluster

yum

2、關閉SELinuxfirewalld

3、配置epel

4、配置服務器時間同步

5、配置主機名

6、配置/etc/hosts文件:

# vim /etc/hosts

192.168.1.143 node1

192.168.1.144 node2

192.168.1.145 node3


三、yum方式安裝配置PXC(如無特殊說明,3個節點都需要執行如下操作)

1、安裝percona yum源:# yum -y install https://repo.percona.com/yum/percona-release-latest.noarch.rpm

2、測試percona yum源:# yum list | grep -i percona

3、安裝PXC# yum -y install Percona-XtraDB-Cluster-57

備註:安裝後生成的比較重要的配置文件

Ø  /etc/percona-xtradb-cluster.conf.d/mysqld.cnf

Ø  /etc/percona-xtradb-cluster.conf.d/mysqld_safe.cnf

Ø  /etc/percona-xtradb-cluster.conf.d/wsrep.cnf

4、創建軟鏈接:

# mv /etc/my.cnf /etc/my.cnf.bak

# update-alternatives --install /etc/my.cnf my.cnf "/etc/percona-xtradb-cluster.cnf" 200

5、master1節點修改mysqld.cnf配置文件:

# vim /etc/percona-xtradb-cluster.conf.d/mysqld.cnf

[mysqld]

server-id=1

datadir=/var/lib/mysql

socket=/var/lib/mysql/mysql.sock

log-error=/var/log/mysqld.log

pid-file=/var/run/mysqld/mysqld.pid

log_bin=mysql-bin

log_bin_index=mysql-bin.index

log_slave_updates

expire_logs_days=7

symbolic-links=0

port=3306

lower_case_table_names=1

character_set_server=utf8mb4

collation_server=utf8mb4_general_ci

innodb_file_per_table=1

skip_name_resolve=1

slow_query_log=1

slow_query_log_file=mysql-slow.log

備註:

Ø  master2節點中的server-id=2master3節點中的server-id=3

Ø  儘管Galera Cluster不再需要通過binlog的形式進行同步,但還是建議在配置文件中開啓二進制日誌功能,原因是後期如果有新節點需要加入,老節點通過SST全量傳輸的方式向新節點傳輸數據,很可能會拖垮集羣性能,所以讓新節點先通過binlog方式完成同步後再加入集羣會是一種更好的選擇

6、master1節點修改wsrep.cnf配置文件:

# vim /etc/percona-xtradb-cluster.conf.d/wsrep.cnf

[mysqld]

wsrep_provider=/usr/lib64/galera3/libgalera_smm.so

wsrep_provider_options="gcache.size=2G"

wsrep_cluster_address="gcomm://192.168.1.143,192.168.1.144,192.168.1.145"

binlog_format=ROW

default_storage_engine=InnoDB

wsrep_slave_threads=8

wsrep_log_conflicts

innodb_autoinc_lock_mode=2

wsrep_node_address=192.168.1.143

wsrep_cluster_name=pxc-cluster

wsrep_node_name=node1

pxc_strict_mode=ENFORCING

wsrep_sst_method=xtrabackup-v2

wsrep_sst_auth="sstuser:s3cretPass"

常用配置參數說明:

(1)wsrep_providerGalera庫的路徑和文件名

(2)wsrep_provider_optionsGalera庫的額外參數

(3)wsrep_cluster_address:集羣中各節點IP

(4)binlog_format:二進制日誌的記錄格式

(5)default_storage_engine:默認使用的存儲引擎

(6)wsrep_slave_threads:使用的從屬線程個數

(7)wsrep_node_address:本節點IP

(8)wsrep_cluster_name:集羣名稱

(9)wsrep_node_name:本節點在集羣中的名稱

(10)wsrep_sst_methodSST傳輸數據的方式,有xtrabackupmysqldumprsync三種,前兩者在傳輸時都需要對donor加全局只讀鎖(FLUSH TABLES WITH READ LOCK),而xtrabackup則不需要(它使用percona自己提供的backup lock),強烈推薦使用xtrabackup-v2方式

(11)wsrep_sst_auth:在SST傳輸時需要使用的認證憑據,格式爲“用戶:密碼”

備註:

Ø  master2節點中的wsrep_node_address=192.168.1.144wsrep_node_name=node2

Ø  master3節點中的wsrep_node_address=192.168.1.145wsrep_node_name=node3

7、初始化MySQL數據:# mysqld --initialize --user=mysql

備註:確保初始化前/var/lib/mysql目錄爲空,初始化完成後會在此目錄中生成各類文件

8、master1節點啓動MySQL服務:

# systemctl start [email protected]

# ss -tunlp | grep mysqld

# systemctl enable [email protected]

# systemctl status [email protected]

# tail -100 /var/log/mysqld.log

9、master1節點配置MySQL安全向導:

# grep "password" /var/log/mysqld.log --> sIw4lWaqXy+X

# mysql_secure_installation

10、master1節點授權root用戶遠程登錄和創建PXC傳輸用戶sstuser

# mysql -uroot -p

mysql> create user 'root'@'192.168.1.%' identified by '123456';

mysql> grant all on *.* to 'root'@'192.168.1.%';

mysql> flush privileges;

mysql> create user 'sstuser'@'localhost' identified by 's3cretPass';

mysql> grant reload, lock tables, process, replication client on *.* to 'sstuser'@'localhost';

mysql> flush privileges;

備註:之後的MySQL版本將不支持grant授權的同時創建用戶,而是需要先創建用戶,再進行授權

11、master2master3節點分別啓動MySQL服務:

# systemctl start mysql.service

# ss -tunlp | grep mysqld

# systemctl enable mysql.service

# systemctl status mysql.service

# tail -100 /var/log/mysqld.log

備註:master2master3節點無需分別配置MySQL安全向導,也無需分別授權root用戶遠程登錄,已從master1節點處同步

12、查看PXC集羣狀態:

mysql> show global status like 'wsrep%';

常用PXC集羣狀態監控指標說明:

(1)wsrep_local_state_uuid:與wsrep_cluster_state_uuid的值一致,且所有節點該值都相同

(2)wsrep_cluster_state_uuid:所有節點該值都相同,如果有不同值的節點,說明該節點沒有與集羣建立連接

(3)wsrep_last_committed:集羣已經提交事務的數量,是一個累計值,所有節點該值都相同,如果出現不一致,說明事務有延遲,可以用來計算延

(4)wsrep_replicated:從本節點複製出去的寫集數量,wsrep_replicated_bytes爲寫集的總字節數,可以用於參考節點間的負載均衡是否平衡,該值較大的節點較爲繁忙

(5)wsrep_received:與wsrep_replicated對應,本節點接收來自其它節點的寫集數量

(6)wsrep_local_state:所有節點該值都應該爲4,表示正常,節點狀態有如下6個取值

     a、取值1:節點啓動並與集羣建立連接

     b、取值2:當節點成功執行狀態傳輸請求時,該節點開始緩存寫集

          c、取值3:節點接收了SST全量數據傳輸,該節點現在擁有所有集羣數據,並開始應用已緩存的寫集

     d、取值4:節點完成與集羣數據的同步,它的從屬隊列現在是空的,並啓用流控使其保持爲空

     e、取值5:節點接收了狀態傳輸請求,該節點現在對donor不執行流控,該節點已緩存所有的寫集但無法應用

     f、取值6:節點完成對joiner節點的狀態傳輸

(7)wsrep_incoming_addresses:集羣中所有節點的IP,且每個節點該值都相同

(8)wsrep_cluster_size:集羣中的節點數量,所有節點該值都相同

(9)wsrep_cluster_conf_id:所有節點該值都相同,如果值不同,說明該節點被臨時“分區”了

(10)wsrep_cluster_status:集羣組成的狀態,所有節點該值都爲“Primary”,如果該值不爲“Primary”,說明該節點出現“分區”或“腦裂”現象

(11)wsrep_connected:所有節點該值都爲“ON”,表示本節點已經與集羣建立連接

(12)wsrep_ready:所有節點該值都爲“ON”,表示本節點可以正常提供服務


四、測試PXC

1、master1節點創建測試數據:

mysql> create database db;

mysql> use db;

mysql> create table tb(id int unsigned auto_increment primary key not null,name char(20) not null);

mysql> desc tb;

mysql> insert into tb(name) values('zhangsan'),('lisi');

mysql> select * from tb;

image.png

2、master2master3節點分別查看測試數據:

mysql> show databases;

mysql> use db;

mysql> show tables;

mysql> desc tb;

mysql> select * from tb;

image.png

3、master2節點創建測試數據:

mysql> insert into tb(name) values('wangwu'),('zhaoliu');

mysql> select * from tb;

image.png

4、master1master3節點分別查看測試數據:

mysql> select * from tb;

image.png

5、master3節點創建測試數據:

mysql> insert into tb(name) values('jack'),('tom');

mysql> select * from tb;

image.png

6、master1master2節點分別查看測試數據:

mysql> select * from tb;

image.png


五、模擬新節點加入PXC

將一個新節點加入PXC集羣,需要SST全量數據傳輸,很有可能拖垮集羣整體性能,可以考慮讓新節點先成爲PXC集羣中某個節點(此處以master2節點爲例)的從節點,然後在線快速通過IST方式加入集羣。

1、演示環境:

IP

操作系統

主機名

角色

數據庫版本

安裝方式

192.168.1.143

CentOS   7.6 x86_64

node1

master1

5.7.25-28-57-log   Percona XtraDB Cluster

yum

192.168.1.144

CentOS   7.6 x86_64

node2

master2

5.7.25-28-57-log   Percona XtraDB Cluster

yum

192.168.1.145

CentOS   7.6 x86_64

node3

master3

5.7.25-28-57-log   Percona XtraDB Cluster

yum

192.168.1.146

CentOS 7.6 x86_64

node4

slave

5.7.25-28-57-log Percona XtraDB Cluster

yum

2、slave節點關閉SELinuxfirewalld、配置epel源、配置服務器時間同步、配置主機名

3、四個節點配置/etc/hosts文件:

# vim /etc/hosts

192.168.1.143 node1

192.168.1.144 node2

192.168.1.145 node3

192.168.1.146 node4

4、slave節點安裝percona yum源:# yum -y install https://repo.percona.com/yum/percona-release-latest.noarch.rpm

5、slave節點安裝PXC# yum -y install Percona-XtraDB-Cluster-57

6、slave節點創建軟鏈接:

# mv /etc/my.cnf /etc/my.cnf.bak

# update-alternatives --install /etc/my.cnf my.cnf "/etc/percona-xtradb-cluster.cnf" 200

7、slave節點修改mysqld.cnf配置文件:

# vim /etc/percona-xtradb-cluster.conf.d/mysqld.cnf

[mysqld]

server-id=4

datadir=/var/lib/mysql

socket=/var/lib/mysql/mysql.sock

log-error=/var/log/mysqld.log

pid-file=/var/run/mysqld/mysqld.pid

log_bin=mysql-bin

log_bin_index=mysql-bin.index

log_slave_updates

expire_logs_days=7

symbolic-links=0

port=3306

lower_case_table_names=1

character_set_server=utf8mb4

collation_server=utf8mb4_general_ci

innodb_file_per_table=1

skip_name_resolve=1

slow_query_log=1

slow_query_log_file=mysql-slow.log

relay_log=relay-log

relay_log_index=relay-log.index

read_only=1

8、slave節點暫時不啓用PXC的相關配置:# cd /etc/percona-xtradb-cluster.conf.d  # mv wsrep.cnf wsrep.cnf.bak

9、slave節點初始化MySQL數據:# mysqld --initialize --user=mysql

10、slave節點啓動MySQL服務:

# systemctl start mysql.service

# ss -tunlp | grep mysqld

# systemctl enable mysql.service

# systemctl status mysql.service

# tail -100 /var/log/mysqld.log

11、slave節點配置MySQL安全向導:

# grep "password" /var/log/mysqld.log --> 7gk0ti?jf*(M

# mysql_secure_installation

12、slave節點授權root用戶遠程登錄:

# mysql -uroot -p

mysql> create user 'root'@'192.168.1.%' identified by '123456';

mysql> grant all on *.* to 'root'@'192.168.1.%';

mysql> flush privileges;

13、master2節點創建具有複製權限的用戶repluser

mysql> create user 'repluser'@'192.168.1.%' identified by '123456';

mysql> grant replication slave on *.* to 'repluser'@'192.168.1.%';

mysql> flush privileges;

14、master2節點使用mysqldump對所有數據庫進行全量熱備,並將導出的sql文件複製至slave節點:

# mkdir -pv /backup

# mysqldump -E -F -R -q --single-transaction --master-data=2 -A -uroot -p > /backup/all_`date +%F`.sql

# less /backup/all_2019-06-06.sql,找到已被註釋的CHANGE MASTER TO語句:

-- CHANGE MASTER TO MASTER_LOG_FILE='mysql-bin.000002', MASTER_LOG_POS=154;

# scp -p /backup/all_2019-06-06.sql node4:/backup/

15、slave節點還原數據:

mysql> show variables like 'sql_log_bin';

mysql> set sql_log_bin=0;

mysql> source /backup/all_2019-06-06.sql

mysql> set sql_log_bin=1;

16、slave節點使用具有複製權限的用戶連接至master2

mysql> change master to master_host='192.168.1.144',master_user='repluser',master_password='123456',master_port=3306,master_log_file='mysql-bin.000002',master_log_pos=154;

mysql> start slave;

mysql> show slave status\G

image.png

17、slave節點停止MySQL服務:

# systemctl stop mysql.service

# ss -tunlp | grep mysqld

# systemctl status mysql.service

# tail -100 /var/log/mysqld.log

18、slave節點註釋/etc/percona-xtradb-cluster.conf.d/mysqld.cnf[mysqld]配置段中read_only=1選項

19、slave節點啓用PXC的相關配置:# cd /etc/percona-xtradb-cluster.conf.d  # mv wsrep.cnf.bak wsrep.cnf

20、slave節點修改wsrep.cnf配置文件:

# vim /etc/percona-xtradb-cluster.conf.d/wsrep.cnf

[mysqld]

wsrep_provider=/usr/lib64/galera3/libgalera_smm.so

wsrep_provider_options="gcache.size=2G"

wsrep_cluster_address="gcomm://192.168.1.143,192.168.1.144,192.168.1.145,192.168.1.146"

binlog_format=ROW

default_storage_engine=InnoDB

wsrep_slave_threads=8

wsrep_log_conflicts

innodb_autoinc_lock_mode=2

wsrep_node_address=192.168.1.146

wsrep_cluster_name=pxc-cluster

wsrep_node_name=node4

pxc_strict_mode=ENFORCING

wsrep_sst_method=xtrabackup-v2

wsrep_sst_auth="sstuser:s3cretPass"

21、master2節點確認PXC需要同步的位置:# mysqlbinlog /var/lib/mysql/mysql-bin.000001 | grep Xid

image.png

備註:master2節點在使用mysqldump對所有數據庫進行全量熱備時使用了“-F”選項,備份時會自動滾動二進制日誌,所以此處命令中使用的二進制日誌爲mysql-bin.000001Xid的值爲最新的18

22、master2節點查看grastate.dat文件的內容,並將grastate.dat文件複製至slave節點的對應目錄下:

# cat /var/lib/mysql/grastate.dat

image.png

備註:

Ø  uuid:集羣中wsrep_cluster_state_uuid的值

Ø  seqno:集羣中swrep_last_committed的值,根據此值可以直接判斷下次節點啓動時做增量傳輸的位置,目前master2節點處於正常運行的狀態,所以值爲-1

# scp -p /var/lib/mysql/grastate.dat node4:/var/lib/mysql/

23、slave節點修改grastate.dat文件的屬主屬組爲mysql用戶:# chown mysql.mysql /var/lib/mysql/grastate.dat

24、slave節點設置同步開始位置:# vim /var/lib/mysql/grastate.dat

image.png

備註:修改seqno的值,將seqno: -1修改爲剛纔獲取的position 1967對應Xid的值18,這就是PXC同步開始的位置

25、slave節點啓動MySQL服務:

# systemctl start mysql.service

# ss -tunlp | grep mysqld

# systemctl status mysql.service

# tail -100 /var/log/mysqld.log

26、slave節點停止主從複製:

mysql> stop slave;

27、查看PXC集羣狀態:

mysql> show global status like 'wsrep%';

(1)wsrep_local_state_uuid:與wsrep_cluster_state_uuid的值一致,且所有節點該值都相同

(2)wsrep_cluster_state_uuid:所有節點該值都相同

(3)wsrep_last_committed:所有節點該值都相同

(4)wsrep_local_state:所有節點該值都應該爲4,表示正常

(5)wsrep_incoming_addresses:集羣中所有節點的IP192.168.1.143~146),且每個節點該值都相同

(6)wsrep_cluster_size:集羣中的節點數量,所有節點該值都相同

(7)wsrep_cluster_conf_id:所有節點該值都相同

(8)wsrep_cluster_status:集羣組成的狀態,所有節點該值都爲“Primary

(9)wsrep_connected:所有節點該值都爲“ON”,表示本節點已經與集羣建立連接

(10)wsrep_ready:所有節點該值都爲“ON”,表示本節點可以正常提供服務

28、新集羣中無論哪個節點寫入數據,都會複製給其它三個節點


六、模擬PXC中某個節點故障並恢復:

1、master3節點停止MySQL服務:

# systemctl stop mysql.service

# ss -tunlp | grep mysqld

# systemctl status mysql.service

# tail -100 /var/log/mysqld.log

2、查看PXC集羣狀態:

mysql> show global status like 'wsrep%';

(1)wsrep_incoming_addresses:目前集羣中所有節點的IP143144146),且每個節點該值都相同

(2)wsrep_cluster_size:集羣中的節點數量(3),所有節點該值都相同

3、集羣剩餘節點中無論哪個節點寫入數據,都會複製給其它兩個節點

4、master3節點修改wsrep.cnf配置文件:

# vim /etc/percona-xtradb-cluster.conf.d/wsrep.cnf

[mysqld]

wsrep_cluster_address="gcomm://192.168.1.143,192.168.1.144,192.168.1.145,192.168.1.146"

5、master3節點啓動MySQL服務:

# systemctl start mysql.service

# ss -tunlp | grep mysqld

# systemctl status mysql.service

# tail -100 /var/log/mysqld.log

6、查看PXC集羣狀態:

mysql> show global status like 'wsrep%';

備註:集羣已恢復正常

7、宕機時在其它可用節點中寫入的數據,已複製給master3節點


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章