原创 kubeadm安裝高可用k8s集羣
環境準備 安裝三臺centos7.6虛擬機 配置k8s源爲阿里雲源 選擇其中一臺虛擬機 apiVersion: kubeadm.k8s.io/v1beta1 bootstrapTokens: - groups: - system:b
原创 kubernetes yaml 部署helm所需的tiller
tiller 扒了一份yaml,暫時沒發現問題,可以直接用了 apiVersion: v1 kind: ServiceAccount metadata: name: tiller namespace: kube-system --
原创 k8s簡單服務模板
一個簡單的服務模板 apiVersion: apps/v1 kind: Deployment metadata: name: tophc-link-portal namespace: prod spec: selector:
原创 jenkins+k8s的自動部署腳本
用了一個很簡單的方式,只是把kubernetes的config文件給放到/home/jenkins/.kube/下面了,直接通過集羣名字進行發佈 需要注意harbor裏面的賬號具有刪除鏡像的權限,這裏只保留30個版本的tag,之前的tag做
原创 k8s deployment健康檢查
原文鏈接: http://idcsec.com/2019/03/14/k8s-deployment健康檢查/ 進程健康檢查 健康檢查最簡單的方式就是檢查進程的狀態。Kubelet 不斷的詢問 Docker daemon 這個容器進程是否還在
原创 nginx-ssl-http2
listen 443 ssl http2; server_name localhost; ssl on; ssl_certificate /srv/app/tengine/cert/cloud.top/nginx.
原创 k8s部署nginx
服務yaml apiVersion: extensions/v1beta1 kind: Deployment metadata: name: link-web namespace: tophc spec: replicas: 1
原创 mysql 主從
主 server_id=1 log_bin=/srv/logs/mysql/mysql-bin expire_logs_days=30 從 server_id=2 read_only = on super_read_only = on re
原创 zk-kafka安裝記錄
10.100.2.21 node1 10.100.2.22 node2 10.100.2.23 node3 zookeeper soft nofile 65536 zookeeper hard nofile 65536
原创 es7.4.0集羣部署
其實主要是配置的變化,需要指定下master節點 cluster.name: prod-es node.name: node1 node.master: true node.data: true path.data: /srv/data/
原创 supervisor啓動elk7.4.0組件
es [program:elasticsearch] command = /srv/app/elk/elasticsearch/bin/elasticsearch autostart = true startsecs = 5 autores
原创 ELK7.4.0分析nginx json日誌
ELK7.4.0單節點部署 環境準備 安裝系統,數據盤設置爲/srv 內核優化參考 我們需要創建elk專用的賬號,並創建所需要的目錄並授權 useradd elk; mkdir /srv/{app,data,logs}/elk chow
原创 博客遷移
博客逐漸遷移到思否 https://segmentfault.com/u/leon_devops 後續還會使用博客園,不過目前主力會傾向於思否
原创 一個簡單的dns服務器
options { listen-on port 53 { any; }; listen-on-v6 port 53 { any; }; directory "/srv/app/named"; dump-
原创 解決172.17 或者172.18 機房環境下harbor服務器不通的問題
直接改docker-compose.yml文件; 把原來的network選項註釋掉,自定義 #networks: # harbor: # external: false networks: harbor: dri