原创 kubeadm安裝高可用k8s集羣

環境準備 安裝三臺centos7.6虛擬機 配置k8s源爲阿里雲源 選擇其中一臺虛擬機 apiVersion: kubeadm.k8s.io/v1beta1 bootstrapTokens: - groups: - system:b

原创 kubernetes yaml 部署helm所需的tiller

tiller 扒了一份yaml,暫時沒發現問題,可以直接用了 apiVersion: v1 kind: ServiceAccount metadata: name: tiller namespace: kube-system --

原创 k8s簡單服務模板

一個簡單的服務模板 apiVersion: apps/v1 kind: Deployment metadata: name: tophc-link-portal namespace: prod spec: selector:

原创 jenkins+k8s的自動部署腳本

用了一個很簡單的方式,只是把kubernetes的config文件給放到/home/jenkins/.kube/下面了,直接通過集羣名字進行發佈 需要注意harbor裏面的賬號具有刪除鏡像的權限,這裏只保留30個版本的tag,之前的tag做

原创 k8s deployment健康檢查

原文鏈接: http://idcsec.com/2019/03/14/k8s-deployment健康檢查/ 進程健康檢查 健康檢查最簡單的方式就是檢查進程的狀態。Kubelet 不斷的詢問 Docker daemon 這個容器進程是否還在

原创 nginx-ssl-http2

listen 443 ssl http2; server_name localhost; ssl on; ssl_certificate /srv/app/tengine/cert/cloud.top/nginx.

原创 k8s部署nginx

服務yaml apiVersion: extensions/v1beta1 kind: Deployment metadata: name: link-web namespace: tophc spec: replicas: 1

原创 mysql 主從

主 server_id=1 log_bin=/srv/logs/mysql/mysql-bin expire_logs_days=30 從 server_id=2 read_only = on super_read_only = on re

原创 zk-kafka安裝記錄

10.100.2.21 node1 10.100.2.22 node2 10.100.2.23 node3 zookeeper soft nofile 65536 zookeeper hard nofile 65536

原创 es7.4.0集羣部署

其實主要是配置的變化,需要指定下master節點 cluster.name: prod-es node.name: node1 node.master: true node.data: true path.data: /srv/data/

原创 supervisor啓動elk7.4.0組件

es [program:elasticsearch] command = /srv/app/elk/elasticsearch/bin/elasticsearch autostart = true startsecs = 5 autores

原创 ELK7.4.0分析nginx json日誌

ELK7.4.0單節點部署 環境準備 安裝系統,數據盤設置爲/srv 內核優化參考 我們需要創建elk專用的賬號,並創建所需要的目錄並授權 useradd elk; mkdir /srv/{app,data,logs}/elk chow

原创 博客遷移

博客逐漸遷移到思否 https://segmentfault.com/u/leon_devops 後續還會使用博客園,不過目前主力會傾向於思否

原创 一個簡單的dns服務器

options { listen-on port 53 { any; }; listen-on-v6 port 53 { any; }; directory "/srv/app/named"; dump-

原创 解決172.17 或者172.18 機房環境下harbor服務器不通的問題

直接改docker-compose.yml文件; 把原來的network選項註釋掉,自定義 #networks: # harbor: # external: false networks: harbor: dri