k8s (十五) ---使用 statefulset控制器部署mysql主從集羣

可以參考官方文檔:https://kubernetes.io/zh/docs/tasks/run-application/run-replicated-stateful-application/

一、部署原理

使用 statefulset控制器部署mysql主從集羣的原理如下圖所示:

在這裏插入圖片描述
mysql主從複製的原理參考:https://blog.csdn.net/qq_35887546/article/details/104661790

具體的原理將會在下文介紹。

二、使用 statefulset控制器部署mysql主從集羣

部署 MySQL

部署 MySQL 示例,包含一個 ConfigMap,兩個 Services,與一個 StatefulSet。

創建ConfigMap

從以下的 YAML 配置文件創建 ConfigMap :

[root@server1 pv]# mkdir mysql
[root@server1 pv]# cd mysql/
[root@server1 mysql]# vim configmap.yaml 
[root@server1 mysql]# cat configmap.yaml 
apiVersion: v1
kind: ConfigMap
metadata:
  name: mysql
  labels:
    app: mysql
data:
  master.cnf: |
    # Apply this config only on the master.
    [mysqld]
    log-bin
  slave.cnf: |
    # Apply this config only on slaves.
    [mysqld]
    super-read-only

這個 ConfigMap 提供 my.cnf 覆蓋,使我們可以獨立控制 MySQL 主服務器和從服務器的配置。 在這種情況下,我們希望主服務器能夠將複製日誌提供給從服務器,並且希望從服務器拒絕任何不是通過複製進行的寫操作。
ConfigMap 本身沒有什麼特別之處,它可以使不同部分應用於不同的 Pod。 每個 Pod 都會決定在初始化時要看基於 StatefulSet 控制器提供的信息。

運行這個yaml文件之前刪除之前實驗所創建的configmap:

[root@server1 mysql]# kubectl delete cm --all

[root@server1 mysql]# kubectl get cm
No resources found in default namespace.

運行yaml文件:

[root@server1 mysql]# kubectl apply -f configmap.yaml 
configmap/mysql created
[root@server1 mysql]# kubectl get cm
NAME    DATA   AGE
mysql   2      2s

查看這個cm的詳細信息:
[root@server1 mysql]# kubectl describe cm mysql 
Name:         mysql
Namespace:    default
Labels:       app=mysql
Annotations:  
Data
====
master.cnf:				#主服務器的配置文件
----
# Apply this config only on the master.
[mysqld]
log-bin

slave.cnf:				#從服務器的配置文件
----
# Apply this config only on slaves.
[mysqld]
super-read-only

Events:  <none>

創建Services

從以下 YAML 配置文件創建服務:

[root@server1 mysql]# vim service.yaml 
[root@server1 mysql]# cat service.yaml 
# Headless service for stable DNS entries of StatefulSet members.
apiVersion: v1
kind: Service
metadata:
  name: mysql
  labels:
    app: mysql
spec:
  ports:
  - name: mysql
    port: 3306
  clusterIP: None
  selector:
    app: mysql
---
# Client service for connecting to any MySQL instance for reads.
# For writes, you must instead connect to the master: mysql-0.mysql.
apiVersion: v1
kind: Service
metadata:
  name: mysql-read
  labels:
    app: mysql
spec:
  ports:
  - name: mysql
    port: 3306
  selector:
    app: mysql

[root@server1 mysql]# 
[root@server1 mysql]# kubectl apply -f service.yaml 
service/mysql created
service/mysql-read created
[root@server1 mysql]# kubectl get svc
NAME         TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)    AGE
mysql        ClusterIP   None            <none>        3306/TCP   23s
mysql-read   ClusterIP   10.100.94.198   <none>        3306/TCP   23s

Headless Service 給 StatefulSet 控制器爲集合中每個 Pod 創建的 DNS 條目提供了一個宿主。因爲 Headless Service 名爲 mysql,所以可以通過在同一 Kubernetes 集羣和 namespace 中的任何其他 Pod 內解析 <pod-name>.mysql 來訪問 Pod。

客戶端 Service 稱爲 mysql-read,是一種常規 Service,具有其自己的羣集 IP,該羣集 IP 在報告爲就緒的所有MySQL Pod 中分配連接。可能端點的集合包括 MySQL 主節點和所有從節點。

請注意,只有讀取查詢才能使用負載平衡的客戶端 Service。因爲只有一個 MySQL 主服務器,所以客戶端應直接連接到 MySQL 主服務器 Pod (通過其在 Headless Service 中的 DNS 條目)以執行寫入操作。

StatefulSet控制器創建pod

最後,從以下 YAML 配置文件創建 StatefulSet:

[root@server1 mysql]# vim statefulset.yaml
[root@server1 mysql]# cat statefulset.yaml 
apiVersion: apps/v1
kind: StatefulSet
metadata:
  name: mysql
spec:
  selector:
    matchLabels:
      app: mysql
  serviceName: mysql
  replicas: 3
  template:
    metadata:
      labels:
        app: mysql
    spec:
      initContainers:
      - name: init-mysql
        image: mysql:5.7
        command:
        - bash
        - "-c"
        - |
          set -ex
          # Generate mysql server-id from pod ordinal index.
          [[ `hostname` =~ -([0-9]+)$ ]] || exit 1
          ordinal=${BASH_REMATCH[1]}
          echo [mysqld] > /mnt/conf.d/server-id.cnf
          # Add an offset to avoid reserved server-id=0 value.
          echo server-id=$((100 + $ordinal)) >> /mnt/conf.d/server-id.cnf
          # Copy appropriate conf.d files from config-map to emptyDir.
          if [[ $ordinal -eq 0 ]]; then
            cp /mnt/config-map/master.cnf /mnt/conf.d/
          else
            cp /mnt/config-map/slave.cnf /mnt/conf.d/
          fi
        volumeMounts:
        - name: conf
          mountPath: /mnt/conf.d
        - name: config-map
          mountPath: /mnt/config-map
      - name: clone-mysql
        image: xtrabackup:1.0
        command:
        - bash
        - "-c"
        - |
          set -ex
          # Skip the clone if data already exists.
          [[ -d /var/lib/mysql/mysql ]] && exit 0
          # Skip the clone on master (ordinal index 0).
          [[ `hostname` =~ -([0-9]+)$ ]] || exit 1
          ordinal=${BASH_REMATCH[1]}
          [[ $ordinal -eq 0 ]] && exit 0
          # Clone data from previous peer.
          ncat --recv-only mysql-$(($ordinal-1)).mysql 3307 | xbstream -x -C /var/lib/mysql
          # Prepare the backup.
          xtrabackup --prepare --target-dir=/var/lib/mysql
        volumeMounts:
        - name: data
          mountPath: /var/lib/mysql
          subPath: mysql
        - name: conf
          mountPath: /etc/mysql/conf.d
      containers:
      - name: mysql
        image: mysql:5.7
        env:
        - name: MYSQL_ALLOW_EMPTY_PASSWORD
          value: "1"
        ports:
        - name: mysql
          containerPort: 3306
        volumeMounts:
        - name: data
          mountPath: /var/lib/mysql
          subPath: mysql
        - name: conf
          mountPath: /etc/mysql/conf.d
        resources:
          requests:
            cpu: 500m
            memory: 300Mi
        livenessProbe:
          exec:
            command: ["mysqladmin", "ping"]
          initialDelaySeconds: 30
          periodSeconds: 10
          timeoutSeconds: 5
        readinessProbe:
          exec:
            # Check we can execute queries over TCP (skip-networking is off).
            command: ["mysql", "-h", "127.0.0.1", "-e", "SELECT 1"]
          initialDelaySeconds: 5
          periodSeconds: 2
          timeoutSeconds: 1
      - name: xtrabackup
        image: xtrabackup:1.0
        ports:
        - name: xtrabackup
          containerPort: 3307
        command:
        - bash
        - "-c"
        - |
          set -ex
          cd /var/lib/mysql

          # Determine binlog position of cloned data, if any.
          if [[ -f xtrabackup_slave_info && "x$(<xtrabackup_slave_info)" != "x" ]]; then
            # XtraBackup already generated a partial "CHANGE MASTER TO" query
            # because we're cloning from an existing slave. (Need to remove the tailing semicolon!)
            cat xtrabackup_slave_info | sed -E 's/;$//g' > change_master_to.sql.in
            # Ignore xtrabackup_binlog_info in this case (it's useless).
            rm -f xtrabackup_slave_info xtrabackup_binlog_info
          elif [[ -f xtrabackup_binlog_info ]]; then
            # We're cloning directly from master. Parse binlog position.
            [[ `cat xtrabackup_binlog_info` =~ ^(.*?)[[:space:]]+(.*?)$ ]] || exit 1
            rm -f xtrabackup_binlog_info xtrabackup_slave_info
            echo "CHANGE MASTER TO MASTER_LOG_FILE='${BASH_REMATCH[1]}',\
                  MASTER_LOG_POS=${BASH_REMATCH[2]}" > change_master_to.sql.in
          fi

          # Check if we need to complete a clone by starting replication.
          if [[ -f change_master_to.sql.in ]]; then
            echo "Waiting for mysqld to be ready (accepting connections)"
            until mysql -h 127.0.0.1 -e "SELECT 1"; do sleep 1; done

            echo "Initializing replication from clone position"
            mysql -h 127.0.0.1 \
                  -e "$(<change_master_to.sql.in), \
                          MASTER_HOST='mysql-0.mysql', \
                          MASTER_USER='root', \
                          MASTER_PASSWORD='', \
                          MASTER_CONNECT_RETRY=10; \
                        START SLAVE;" || exit 1
            # In case of container restart, attempt this at-most-once.
            mv change_master_to.sql.in change_master_to.sql.orig
          fi

          # Start a server to send backups when requested by peers.
          exec ncat --listen --keep-open --send-only --max-conns=1 3307 -c \
            "xtrabackup --backup --slave-info --stream=xbstream --host=127.0.0.1 --user=root"
        volumeMounts:
        - name: data
          mountPath: /var/lib/mysql
          subPath: mysql
        - name: conf
          mountPath: /etc/mysql/conf.d
        resources:
          requests:
            cpu: 100m
            memory: 100Mi
      volumes:
      - name: conf
        emptyDir: {}
      - name: config-map
        configMap:
          name: mysql
  volumeClaimTemplates:
  - metadata:
      name: data
    spec:
      accessModes: ["ReadWriteOnce"]
      resources:
        requests:
          storage: 1Gi

StatefulSet 控制器一次按順序啓動 Pod 序數索引。它一直等到每個 Pod 報告就緒爲止,然後再開始下一個 Pod。
此外,控制器爲每個 Pod 分配一個唯一,穩定的表單名稱 <statefulset-name>-<ordinal-index> 其結果是 Pods 名爲 mysql-0,mysql-1 和 mysql-2。

上述 StatefulSet 清單中的 Pod 模板利用這些屬性來執行 MySQL 複製的有序啓動。

  • 生成配置

在啓動 Pod 規範中的任何容器之前, Pod 首先按照定義的順序運行所有初始容器。

第一個名爲 init-mysql 的初始化容器,根據序號索引生成特殊的 MySQL 配置文件。

該腳本通過從 Pod 名稱的末尾提取索引來確定自己的序號索引,該名稱由 hostname 命令返回。 然後將序數(帶有數字偏移量以避免保留值)保存到 MySQL conf.d 目錄中的文件 server-id.cnf 中。 這將轉換 StatefulSet 提供的唯一,穩定的身份控制器進入需要相同屬性的 MySQL 服務器 ID 的範圍。

通過將內容複製到 conf.d 中,init-mysql 容器中的腳本也可以應用 ConfigMap 中的 master.cnf 或 slave.cnf。由於示例拓撲由單個 MySQL 主節點和任意數量的從節點組成,因此腳本僅將序數 0 指定爲主節點,而將其他所有人指定爲從節點。與 StatefulSet 控制器的部署順序保證,這樣可以確保 MySQL 主服務器在創建從服務器之前已準備就緒,以便它們可以開始複製。

  • 克隆現有數據

通常,當新的 Pod 作爲從節點加入集合時,必須假定 MySQL 主節點可能已經有數據。還必須假設複製日誌可能不會一直追溯到時間的開始。 這些保守假設的關鍵是允許正在運行的 StatefulSet 隨時間擴大和縮小而不是固定在其初始大小。

第二個名爲 clone-mysql 的初始化容器,第一次在從屬 Pod 上以空 PersistentVolume 啓動時,會對從屬 Pod 執行克隆操作。這意味着它將從另一個運行的 Pod 複製所有現有數據,因此其本地狀態足夠一致,可以開始主從服務器複製。

MySQL 本身不提供執行此操作的機制,因此該示例使用了一種流行的開源工具 Percona XtraBackup。 在克隆期間,源 MySQL 服務器可能會降低性能。 爲了最大程度地減少對 MySQL 主機的影響,該腳本指示每個 Pod 從序號較低的 Pod 中克隆(即mysql-2從mysql-1中克隆)。 可以這樣做的原因是 StatefulSet 控制器始終確保在啓動 Pod N + 1 之前 Pod N 已準備就緒。

  • 開始複製

初始化容器成功完成後,常規容器將運行。 MySQL Pods 由運行實際 mysqld 服務器的 mysql 容器和充當輔助工具的 xtrabackup 容器組成。

xtrabackup 輔助工具查看克隆的數據文件,並確定是否有必要在從屬服務器上初始化 MySQL 複製。 如果是這樣,它將等待 mysqld 準備就緒,然後執行帶有從 XtraBackup 克隆文件中提取的複製參數 CHANGE MASTER TO 和 START SLAVE 命令。

一旦從服務器開始複製後,它會記住其 MySQL 主服務器。並且如果服務器重新啓動或連接中斷,則會自動重新連接。 另外,因爲從服務器會以其穩定的 DNS 名稱查找主服務器(mysql-0.mysql),即使由於重新安排而獲得新的 Pod IP,他們也會自動找到主服務器。

最後,開始複製後,xtrabackup 容器監聽來自其他 Pod 的連接數據克隆請求。 如果 StatefulSet 擴大規模,或者下一個 Pod 失去其 PersistentVolumeClaim 並需要重新克隆,則此服務器將無限期保持運行。

上述yaml文件中需要的鏡像有:mysql:5.7xtrabackup:1.0,需要提前拉取放到私有倉庫裏面。

運行這個文件:

[root@server1 mysql]# kubectl apply -f statefulset.yaml 
statefulset.apps/mysql created

運行後等待幾分鐘即可查看到所有pod均以運行:

[root@server1 mysql]# kubectl get pod
NAME                                      READY   STATUS    RESTARTS   AGE
mysql-0                                   2/2     Running   0          6m34s
mysql-1                                   2/2     Running   0          4m2s
mysql-2                                   2/2     Running   0          2m
nfs-client-provisioner-6b66ddf664-zjvtv   1/1     Running   0          169m

主從測試

發送客戶端流量

您可以通過運行帶有 mysql:5.7 鏡像的臨時容器並運行 mysql 客戶端二進制文件,將測試查詢發送到 MySQL 主服務器(主機名 mysql-0.mysql )。

[root@server1 mysql]# kubectl run test --image=mysql:5.7 -it -- bash

root@test:/# mysql -h mysql-0.mysql

mysql> create database redhat;
Query OK, 1 row affected (0.11 sec)

mysql> show databases;
+------------------------+
| Database               |
+------------------------+
| information_schema     |
| mysql                  |
| performance_schema     |
| redhat                 |
| sys                    |
| xtrabackup_backupfiles |
+------------------------+
6 rows in set (0.04 sec)

通過訪問mysql-read來查看創建的數據庫是否在從庫創建:

[root@server1 mysql]# kubectl get svc
NAME         TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)    AGE
kubernetes   ClusterIP   10.96.0.1       <none>        443/TCP    19d
myservice    ClusterIP   10.101.31.155   <none>        80/TCP     14d
mysql        ClusterIP   None            <none>        3306/TCP   62m
mysql-read   ClusterIP   10.100.94.198   <none>        3306/TCP   62m
[root@server1 mysql]# 
[root@server1 mysql]# kubectl attach test -it

root@test:/# mysql -h 10.100.94.198

mysql> show databases;
+------------------------+
| Database               |
+------------------------+
| information_schema     |
| mysql                  |
| performance_schema     |
| redhat                 |
| sys                    |
| xtrabackup_backupfiles |
+------------------------+
6 rows in set (0.05 sec)

可以看出從庫複製了主庫的操作。

也可以直接訪問從庫:

[root@server1 mysql]# kubectl attach test -it

root@test:/# mysql -h mysql-1.mysql

mysql> show databases;
+------------------------+
| Database               |
+------------------------+
| information_schema     |
| mysql                  |
| performance_schema     |
| redhat                 |
| sys                    |
| xtrabackup_backupfiles |
+------------------------+
6 rows in set (0.02 sec)

訪問第二個從庫:

root@test:/# mysql -h mysql-2.mysql

mysql> show databases;
+------------------------+
| Database               |
+------------------------+
| information_schema     |
| mysql                  |
| performance_schema     |
| redhat                 |
| sys                    |
| xtrabackup_backupfiles |
+------------------------+
6 rows in set (0.06 sec)

可以看出兩個從庫均複製了主庫的操作。

此時mysql主從集羣部署完成。

想要刪除這個集羣可以將replicas設置爲0即可:

[root@server1 mysql]# vim statefulset.yaml 
[root@server1 mysql]# cat statefulset.yaml 
修改:
  replicas: 0

[root@server1 mysql]# kubectl apply -f statefulset.yaml 
statefulset.apps/mysql configured
[root@server1 mysql]# kubectl get pod
NAME                                      READY   STATUS    RESTARTS   AGE
nfs-client-provisioner-6b66ddf664-zjvtv   1/1     Running   0          3h
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章