使用 statefulset控制器部署mysql主從集羣
可以參考官方文檔:https://kubernetes.io/zh/docs/tasks/run-application/run-replicated-stateful-application/
一、部署原理
使用 statefulset控制器部署mysql主從集羣的原理如下圖所示:
mysql主從複製的原理參考:https://blog.csdn.net/qq_35887546/article/details/104661790
具體的原理將會在下文介紹。
二、使用 statefulset控制器部署mysql主從集羣
部署 MySQL
部署 MySQL 示例,包含一個 ConfigMap,兩個 Services,與一個 StatefulSet。
創建ConfigMap
從以下的 YAML 配置文件創建 ConfigMap :
[root@server1 pv]# mkdir mysql
[root@server1 pv]# cd mysql/
[root@server1 mysql]# vim configmap.yaml
[root@server1 mysql]# cat configmap.yaml
apiVersion: v1
kind: ConfigMap
metadata:
name: mysql
labels:
app: mysql
data:
master.cnf: |
# Apply this config only on the master.
[mysqld]
log-bin
slave.cnf: |
# Apply this config only on slaves.
[mysqld]
super-read-only
這個 ConfigMap 提供 my.cnf 覆蓋,使我們可以獨立控制 MySQL 主服務器和從服務器的配置。 在這種情況下,我們希望主服務器能夠將複製日誌提供給從服務器,並且希望從服務器拒絕任何不是通過複製進行的寫操作。
ConfigMap 本身沒有什麼特別之處,它可以使不同部分應用於不同的 Pod。 每個 Pod 都會決定在初始化時要看基於 StatefulSet 控制器提供的信息。
運行這個yaml文件之前刪除之前實驗所創建的configmap:
[root@server1 mysql]# kubectl delete cm --all
[root@server1 mysql]# kubectl get cm
No resources found in default namespace.
運行yaml文件:
[root@server1 mysql]# kubectl apply -f configmap.yaml
configmap/mysql created
[root@server1 mysql]# kubectl get cm
NAME DATA AGE
mysql 2 2s
查看這個cm的詳細信息:
[root@server1 mysql]# kubectl describe cm mysql
Name: mysql
Namespace: default
Labels: app=mysql
Annotations:
Data
====
master.cnf: #主服務器的配置文件
----
# Apply this config only on the master.
[mysqld]
log-bin
slave.cnf: #從服務器的配置文件
----
# Apply this config only on slaves.
[mysqld]
super-read-only
Events: <none>
創建Services
從以下 YAML 配置文件創建服務:
[root@server1 mysql]# vim service.yaml
[root@server1 mysql]# cat service.yaml
# Headless service for stable DNS entries of StatefulSet members.
apiVersion: v1
kind: Service
metadata:
name: mysql
labels:
app: mysql
spec:
ports:
- name: mysql
port: 3306
clusterIP: None
selector:
app: mysql
---
# Client service for connecting to any MySQL instance for reads.
# For writes, you must instead connect to the master: mysql-0.mysql.
apiVersion: v1
kind: Service
metadata:
name: mysql-read
labels:
app: mysql
spec:
ports:
- name: mysql
port: 3306
selector:
app: mysql
[root@server1 mysql]#
[root@server1 mysql]# kubectl apply -f service.yaml
service/mysql created
service/mysql-read created
[root@server1 mysql]# kubectl get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
mysql ClusterIP None <none> 3306/TCP 23s
mysql-read ClusterIP 10.100.94.198 <none> 3306/TCP 23s
Headless Service 給 StatefulSet 控制器爲集合中每個 Pod 創建的 DNS 條目提供了一個宿主。因爲 Headless Service 名爲 mysql,所以可以通過在同一 Kubernetes 集羣和 namespace 中的任何其他 Pod 內解析 <pod-name>.mysql
來訪問 Pod。
客戶端 Service 稱爲 mysql-read,是一種常規 Service,具有其自己的羣集 IP,該羣集 IP 在報告爲就緒的所有MySQL Pod 中分配連接。可能端點的集合包括 MySQL 主節點和所有從節點。
請注意,只有讀取查詢才能使用負載平衡的客戶端 Service。因爲只有一個 MySQL 主服務器,所以客戶端應直接連接到 MySQL 主服務器 Pod (通過其在 Headless Service 中的 DNS 條目)以執行寫入操作。
StatefulSet控制器創建pod
最後,從以下 YAML 配置文件創建 StatefulSet:
[root@server1 mysql]# vim statefulset.yaml
[root@server1 mysql]# cat statefulset.yaml
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: mysql
spec:
selector:
matchLabels:
app: mysql
serviceName: mysql
replicas: 3
template:
metadata:
labels:
app: mysql
spec:
initContainers:
- name: init-mysql
image: mysql:5.7
command:
- bash
- "-c"
- |
set -ex
# Generate mysql server-id from pod ordinal index.
[[ `hostname` =~ -([0-9]+)$ ]] || exit 1
ordinal=${BASH_REMATCH[1]}
echo [mysqld] > /mnt/conf.d/server-id.cnf
# Add an offset to avoid reserved server-id=0 value.
echo server-id=$((100 + $ordinal)) >> /mnt/conf.d/server-id.cnf
# Copy appropriate conf.d files from config-map to emptyDir.
if [[ $ordinal -eq 0 ]]; then
cp /mnt/config-map/master.cnf /mnt/conf.d/
else
cp /mnt/config-map/slave.cnf /mnt/conf.d/
fi
volumeMounts:
- name: conf
mountPath: /mnt/conf.d
- name: config-map
mountPath: /mnt/config-map
- name: clone-mysql
image: xtrabackup:1.0
command:
- bash
- "-c"
- |
set -ex
# Skip the clone if data already exists.
[[ -d /var/lib/mysql/mysql ]] && exit 0
# Skip the clone on master (ordinal index 0).
[[ `hostname` =~ -([0-9]+)$ ]] || exit 1
ordinal=${BASH_REMATCH[1]}
[[ $ordinal -eq 0 ]] && exit 0
# Clone data from previous peer.
ncat --recv-only mysql-$(($ordinal-1)).mysql 3307 | xbstream -x -C /var/lib/mysql
# Prepare the backup.
xtrabackup --prepare --target-dir=/var/lib/mysql
volumeMounts:
- name: data
mountPath: /var/lib/mysql
subPath: mysql
- name: conf
mountPath: /etc/mysql/conf.d
containers:
- name: mysql
image: mysql:5.7
env:
- name: MYSQL_ALLOW_EMPTY_PASSWORD
value: "1"
ports:
- name: mysql
containerPort: 3306
volumeMounts:
- name: data
mountPath: /var/lib/mysql
subPath: mysql
- name: conf
mountPath: /etc/mysql/conf.d
resources:
requests:
cpu: 500m
memory: 300Mi
livenessProbe:
exec:
command: ["mysqladmin", "ping"]
initialDelaySeconds: 30
periodSeconds: 10
timeoutSeconds: 5
readinessProbe:
exec:
# Check we can execute queries over TCP (skip-networking is off).
command: ["mysql", "-h", "127.0.0.1", "-e", "SELECT 1"]
initialDelaySeconds: 5
periodSeconds: 2
timeoutSeconds: 1
- name: xtrabackup
image: xtrabackup:1.0
ports:
- name: xtrabackup
containerPort: 3307
command:
- bash
- "-c"
- |
set -ex
cd /var/lib/mysql
# Determine binlog position of cloned data, if any.
if [[ -f xtrabackup_slave_info && "x$(<xtrabackup_slave_info)" != "x" ]]; then
# XtraBackup already generated a partial "CHANGE MASTER TO" query
# because we're cloning from an existing slave. (Need to remove the tailing semicolon!)
cat xtrabackup_slave_info | sed -E 's/;$//g' > change_master_to.sql.in
# Ignore xtrabackup_binlog_info in this case (it's useless).
rm -f xtrabackup_slave_info xtrabackup_binlog_info
elif [[ -f xtrabackup_binlog_info ]]; then
# We're cloning directly from master. Parse binlog position.
[[ `cat xtrabackup_binlog_info` =~ ^(.*?)[[:space:]]+(.*?)$ ]] || exit 1
rm -f xtrabackup_binlog_info xtrabackup_slave_info
echo "CHANGE MASTER TO MASTER_LOG_FILE='${BASH_REMATCH[1]}',\
MASTER_LOG_POS=${BASH_REMATCH[2]}" > change_master_to.sql.in
fi
# Check if we need to complete a clone by starting replication.
if [[ -f change_master_to.sql.in ]]; then
echo "Waiting for mysqld to be ready (accepting connections)"
until mysql -h 127.0.0.1 -e "SELECT 1"; do sleep 1; done
echo "Initializing replication from clone position"
mysql -h 127.0.0.1 \
-e "$(<change_master_to.sql.in), \
MASTER_HOST='mysql-0.mysql', \
MASTER_USER='root', \
MASTER_PASSWORD='', \
MASTER_CONNECT_RETRY=10; \
START SLAVE;" || exit 1
# In case of container restart, attempt this at-most-once.
mv change_master_to.sql.in change_master_to.sql.orig
fi
# Start a server to send backups when requested by peers.
exec ncat --listen --keep-open --send-only --max-conns=1 3307 -c \
"xtrabackup --backup --slave-info --stream=xbstream --host=127.0.0.1 --user=root"
volumeMounts:
- name: data
mountPath: /var/lib/mysql
subPath: mysql
- name: conf
mountPath: /etc/mysql/conf.d
resources:
requests:
cpu: 100m
memory: 100Mi
volumes:
- name: conf
emptyDir: {}
- name: config-map
configMap:
name: mysql
volumeClaimTemplates:
- metadata:
name: data
spec:
accessModes: ["ReadWriteOnce"]
resources:
requests:
storage: 1Gi
StatefulSet 控制器一次按順序啓動 Pod 序數索引。它一直等到每個 Pod 報告就緒爲止,然後再開始下一個 Pod。
此外,控制器爲每個 Pod 分配一個唯一,穩定的表單名稱 <statefulset-name>-<ordinal-index>
其結果是 Pods 名爲 mysql-0,mysql-1 和 mysql-2。
上述 StatefulSet 清單中的 Pod 模板利用這些屬性來執行 MySQL 複製的有序啓動。
- 生成配置
在啓動 Pod 規範中的任何容器之前, Pod 首先按照定義的順序運行所有初始容器。
第一個名爲 init-mysql
的初始化容器,根據序號索引生成特殊的 MySQL 配置文件。
該腳本通過從 Pod 名稱的末尾提取索引來確定自己的序號索引,該名稱由 hostname 命令返回。 然後將序數(帶有數字偏移量以避免保留值)保存到 MySQL conf.d 目錄中的文件 server-id.cnf 中。 這將轉換 StatefulSet 提供的唯一,穩定的身份控制器進入需要相同屬性的 MySQL 服務器 ID 的範圍。
通過將內容複製到 conf.d 中,init-mysql 容器中的腳本也可以應用 ConfigMap 中的 master.cnf 或 slave.cnf。由於示例拓撲由單個 MySQL 主節點和任意數量的從節點組成,因此腳本僅將序數 0 指定爲主節點,而將其他所有人指定爲從節點。與 StatefulSet 控制器的部署順序保證,這樣可以確保 MySQL 主服務器在創建從服務器之前已準備就緒,以便它們可以開始複製。
- 克隆現有數據
通常,當新的 Pod 作爲從節點加入集合時,必須假定 MySQL 主節點可能已經有數據。還必須假設複製日誌可能不會一直追溯到時間的開始。 這些保守假設的關鍵是允許正在運行的 StatefulSet 隨時間擴大和縮小而不是固定在其初始大小。
第二個名爲 clone-mysql 的初始化容器,第一次在從屬 Pod 上以空 PersistentVolume 啓動時,會對從屬 Pod 執行克隆操作。這意味着它將從另一個運行的 Pod 複製所有現有數據,因此其本地狀態足夠一致,可以開始主從服務器複製。
MySQL 本身不提供執行此操作的機制,因此該示例使用了一種流行的開源工具 Percona XtraBackup
。 在克隆期間,源 MySQL 服務器可能會降低性能。 爲了最大程度地減少對 MySQL 主機的影響,該腳本指示每個 Pod 從序號較低的 Pod 中克隆(即mysql-2從mysql-1中克隆)。 可以這樣做的原因是 StatefulSet 控制器始終確保在啓動 Pod N + 1 之前 Pod N 已準備就緒。
- 開始複製
初始化容器成功完成後,常規容器將運行。 MySQL Pods 由運行實際 mysqld 服務器的 mysql 容器和充當輔助工具的 xtrabackup 容器組成。
xtrabackup 輔助工具查看克隆的數據文件,並確定是否有必要在從屬服務器上初始化 MySQL 複製。 如果是這樣,它將等待 mysqld 準備就緒,然後執行帶有從 XtraBackup 克隆文件中提取的複製參數 CHANGE MASTER TO 和 START SLAVE 命令。
一旦從服務器開始複製後,它會記住其 MySQL 主服務器。並且如果服務器重新啓動或連接中斷,則會自動重新連接。 另外,因爲從服務器會以其穩定的 DNS 名稱查找主服務器(mysql-0.mysql),即使由於重新安排而獲得新的 Pod IP,他們也會自動找到主服務器。
最後,開始複製後,xtrabackup 容器監聽來自其他 Pod 的連接數據克隆請求。 如果 StatefulSet 擴大規模,或者下一個 Pod 失去其 PersistentVolumeClaim 並需要重新克隆,則此服務器將無限期保持運行。
上述yaml文件中需要的鏡像有:mysql:5.7
和 xtrabackup:1.0
,需要提前拉取放到私有倉庫裏面。
運行這個文件:
[root@server1 mysql]# kubectl apply -f statefulset.yaml
statefulset.apps/mysql created
運行後等待幾分鐘即可查看到所有pod均以運行:
[root@server1 mysql]# kubectl get pod
NAME READY STATUS RESTARTS AGE
mysql-0 2/2 Running 0 6m34s
mysql-1 2/2 Running 0 4m2s
mysql-2 2/2 Running 0 2m
nfs-client-provisioner-6b66ddf664-zjvtv 1/1 Running 0 169m
主從測試
發送客戶端流量
您可以通過運行帶有 mysql:5.7 鏡像的臨時容器並運行 mysql 客戶端二進制文件,將測試查詢發送到 MySQL 主服務器(主機名 mysql-0.mysql )。
[root@server1 mysql]# kubectl run test --image=mysql:5.7 -it -- bash
root@test:/# mysql -h mysql-0.mysql
mysql> create database redhat;
Query OK, 1 row affected (0.11 sec)
mysql> show databases;
+------------------------+
| Database |
+------------------------+
| information_schema |
| mysql |
| performance_schema |
| redhat |
| sys |
| xtrabackup_backupfiles |
+------------------------+
6 rows in set (0.04 sec)
通過訪問mysql-read來查看創建的數據庫是否在從庫創建:
[root@server1 mysql]# kubectl get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 19d
myservice ClusterIP 10.101.31.155 <none> 80/TCP 14d
mysql ClusterIP None <none> 3306/TCP 62m
mysql-read ClusterIP 10.100.94.198 <none> 3306/TCP 62m
[root@server1 mysql]#
[root@server1 mysql]# kubectl attach test -it
root@test:/# mysql -h 10.100.94.198
mysql> show databases;
+------------------------+
| Database |
+------------------------+
| information_schema |
| mysql |
| performance_schema |
| redhat |
| sys |
| xtrabackup_backupfiles |
+------------------------+
6 rows in set (0.05 sec)
可以看出從庫複製了主庫的操作。
也可以直接訪問從庫:
[root@server1 mysql]# kubectl attach test -it
root@test:/# mysql -h mysql-1.mysql
mysql> show databases;
+------------------------+
| Database |
+------------------------+
| information_schema |
| mysql |
| performance_schema |
| redhat |
| sys |
| xtrabackup_backupfiles |
+------------------------+
6 rows in set (0.02 sec)
訪問第二個從庫:
root@test:/# mysql -h mysql-2.mysql
mysql> show databases;
+------------------------+
| Database |
+------------------------+
| information_schema |
| mysql |
| performance_schema |
| redhat |
| sys |
| xtrabackup_backupfiles |
+------------------------+
6 rows in set (0.06 sec)
可以看出兩個從庫均複製了主庫的操作。
此時mysql主從集羣部署完成。
想要刪除這個集羣可以將replicas設置爲0即可:
[root@server1 mysql]# vim statefulset.yaml
[root@server1 mysql]# cat statefulset.yaml
修改:
replicas: 0
[root@server1 mysql]# kubectl apply -f statefulset.yaml
statefulset.apps/mysql configured
[root@server1 mysql]# kubectl get pod
NAME READY STATUS RESTARTS AGE
nfs-client-provisioner-6b66ddf664-zjvtv 1/1 Running 0 3h