原创 Kubernetes ---- Pod控制器之Deployment
Deployments 官方介紹:https://kubernetes.io/docs/concepts/workloads/controllers/deployment/ 一個Deployment控制器爲Pods和ReplicaS
原创 Kubernetes ---- 理論、架構
Kubernetes的特性: 1. 實現自動裝箱(自動完成資源的部署). 2. 自我修復(kill掉,重新啓一個). 3. 自動實現水平擴展(物力資源要足夠支撐). 4. 服務發現和負載均衡. 5. 自動發佈和回滾
原创 DevOps ---- GitLab + Maven + Docker + Harbor
今天來記錄一下自己這邊兒做的CI,還沒到CD那一步呢,不過就是添加一下構建後操作,沒什麼更大的難度,話不多說,整起來! 實施過程: 使用Docker安裝Jenkins. 在GitLab中配置與Jenkins主機之間的祕鑰對兒. Jen
原创 Python ---- tarfile && zipfile 壓縮及打包
感覺使用Python壓縮是不是更方便點兒啊,現在都魔怔了,就用"ipython"替代命令行了都(哈哈哈哈) tarfile: tarfile不得不說真的很好用,感覺比“Linux”上的“tar”命令好用(不過我還是很熱愛Linux的,嘻
原创 Python ---- 找出'/mnt'目錄下最大(最早)的十個文件
今天看了一下Python自動化的書,裏邊兒有個這個需求,嘗試做了一下,感覺還湊合= =,記錄一下我的Python自動化學習過程; 先定義一個通用函數,可被循環;(其實上一篇博客裏就有) #!/usr/bin/python3 imp
原创 Python3的Logging模塊接收命令行中傳入的日誌級別
入門的話還是看官方文檔比較好,我主要是記錄官網中當時沒看懂的那個部分,如下圖; 地址:https://docs.python.org/zh-cn/3/howto/logging.html#logging-to-a-file 上圖
原创 Zabbix監控服務器磁盤I/O
一、場景說明: 需要使用Zabbix監控服務器上各個磁盤的I/O使用率,當zabbix自身帶的item無法滿足我們的時候,則需自定義item。 包括: 磁盤讀的次數 磁盤讀的毫秒數 磁盤寫的次數 磁盤寫的毫秒數
原创 ELK+Logback進行業務日誌分析查看
第1章 Elasticsearch安裝部署 1.1 下載軟件包並創建工作目錄 程序下載地址:https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7
原创 創建readonly只讀用戶腳本
身爲一名運維工作人員,保證服務器的安全是必要項,當開發人員或測試人員需登錄到服務器查看日誌等操作時,可只給定特定的權限防止誤操作的慘況產生。 以下腳本內容均爲我本人環境,如有更改可自行修改。 ~]# vim create_reado
原创 Elasticsearch高版本安裝head插件
安裝Elasticsearch 1.安裝Elasticsearch-6.5.4.tar.gz [merce@info5 ~]$ cd /appmerce/zrapp/ [merce@info5 zrapp]$ rz
原创 Docker Harbor
簡介: Harbor是一個用於存儲Docker鏡像的企業級Registry服務;本章將介紹如何搭建Harbor Registry! Github官方安裝文檔: https://github.com/goharbor/harbor
原创 Zabbix監控多個JVM進程
一、場景說明: 我們這邊的環境用的是微服務,每個程序都是有單獨的進程及單獨的端口號,但用jps查詢出來的結果有些還會有重名的情況,所以某些腳本不太適用本場景; 二、需求說明: 需使用Zabbix-server監控每個
原创 Ingress-Nginx
注意: 本文只用的ingress-nginx版本爲0.24.1,可在官方網站自行下載 https://github.com/kubernetes/ingress-nginx 一、Ingress-Nginx工作原理 1.ing
原创 Elasticsearch+x-pack認證license過期處理
介紹: x-pack是Elasticsearch中的一個plugin,主要功能是實現認證功能 報錯: 類似下面這樣的報錯,是因爲licese過期導致的 解決: 1.首先去Elasticsearch的官方網站填寫信息並下
原创 Pods應用NFS存儲
Volumes選擇NFS服務器: 條件: 1. k8s集羣,目前爲(hadoop1,hadoop2,hadoop3) 2. 另起一臺服務器做專門的NFS服務器 3. NFS需要在K8S的各個節點安裝