原创 mysql之PXC集羣模式(docker+mysql8+pxc實現)

  一、mysql的PXC類似於MGR模式,全稱Percona XtraDB Cluster,這個集羣的優缺點也是相對的。   二、優點   1)數據庫集羣高可用,數據強一致性。   2)真正的多節點讀寫。   3)改善了傳統binlog到

原创 docker-compose之mysql-router(MGR單主模式)

  一、mysql-router:簡單理解就是集羣的路由,通過路由來訪問具體的數據庫集羣。      二、本編介紹如何搭建docker版的MGR集羣       1、dockerfile   Dockerfile-cluster FROM

原创 docker-compose之redis cluster模式-2

  一、上一篇文章介紹了redis-cluster的docker安裝方式,地址:https://www.cnblogs.com/ll409546297/p/16924478.html   二、說明上面的問題:因爲都是master,如果存在一

原创 docker-compose之redis cluster模式

  一、docker容器化的redis cluster最難搞的就是網絡問題,這邊記錄一下集羣搭建過程。   二、dockerfile FROM redis:5.0.14 MAINTAINER xbd RUN ln -sf /usr/sha

原创 docker-compose值mysql集羣模式(MGR)

  一、之前也提過MGR的方式,侷限很多,但是畢竟是集羣的方式還是存在使用場景的。   1、必須使用InnoDB   2、每個表必須定義主鍵,主要用於事務衝突判斷。   3、必須使用IPV4網絡。   4、最多隻支持 9 個節點。   5、

原创 docker-compose值mysql雙主(HA)+ keepalived

  一、mysql的常用集羣方案有很多種吧,但是相對容易的就是mysql的HA方案,也有更加合適的MGR方案。但是兩種方案都存在利弊。比如HA方案中部署簡單,也可以配置keepalived通過VIP飄移來實現IP不變的會用。但是存在的問題就

原创 docker自建elasticsearch鏡像

  一、dockerhub中沒有elasticsearch:6.2.4版本的鏡像(你敢信!!),沒有辦法只有自己弄了   二、參考官網鏡像的構建過程(尼瑪看不懂)         備註:看不懂呀,不過有些過程還是可以瞭解的(比如創建用戶和組

原创 docker-compose部署elasticsearch集羣

  一、準備基礎鏡像 docker pull elasticsearch:7.3.2   二、dockerfile(Dockerfile-elasticsearch),爲了保護原生的鏡像 FROM elasticsearch:7.3.

原创 k8s之dashboard

  一、dashboard:簡而言之,k8s的頁面展示。效果更加直觀。   二、安裝dashboard   1)github官網地址和版本選擇地址   地址:https://github.com/kubernetes/dashboard  

原创 k8s之Secret

  一、密鑰配置,簡單一點就是重要的密鑰管理。   二、阿里雲(其他docker倉庫也適用)的密鑰管理   1)登錄自己的docker倉庫 docker login --username=<email> registry.cn-cheng

原创 k8s之mysql(pv,pvc)

  一、PersistentVolume (PV):簡短一點就是管理員創建的一種存儲資源   二、PersistentVolumeClaim (PVC):就一種聲明,說我要使用pv了。   三、PV和PVC的配置 apiVersion:

原创 k8s之ingress

  一、k8s的暴露服務的方式存在很多種,爲啥要選擇ingress呢?   二、k8s之Service apiVersion: v1 kind: Service metadata: name: xbd-nacos spec: po

原创 https在springboot和RestTemplate中的使用

  一、HTTPS (全稱:Hyper Text Transfer Protocol over SecureSocket Layer),是以安全爲目標的 HTTP 通道,在HTTP的基礎上通過傳輸加密和身份認證保證了傳輸過程的安全性 [1]

原创 kafk優化-3

  一、kafka在使用的時候還是會存在一些問題的,這裏主要是記錄kafka的優化方式,以及帶來的問題。   二、防止消息丟失和重複消費   1、防止數據丟失   1)發送方:ack設置爲1或者-1/all,把min.insyc.repli

原创 kafka與springboot集成-2

  一、加入依賴(springboot的其他依賴這裏展示了,版本使用的是2.0.4.RELEASE) <dependency> <groupId>org.springframework.kafka</groupId> <a