原创 CentOS 啓動流程

流程圖:   系統初始化流程:POST --> Boot Sequence(BIOS) --> Boot Loader (MBR) --> Kernel(ramdisk) --> rootfs --> switchroot --> /sbi

原创 淺談sed用法

原理     一行文本被讀到模式空間以後,首先會判斷模式空間的行是否能被你定義的模式所匹配到,如果能匹配到就對它做一次輸出操作,而後做編輯操作,如果不期望直接輸出模式空間的內容到屏幕可以加-n選項    文本處理三劍客:grep, egre

原创 網絡的基本配置

一:Linux的網絡屬性配置:        (1)網絡分層的作用    物理層:用於界定網絡設備接口標準,電器特性等硬件標準    數據鏈路層:識別網絡設備,數據校驗,幀的開始和結束    網絡層:IP通訊最佳路徑選擇    傳輸層:三次

原创 linux內核管理

一、Linux內核模塊化設計    1.Linux內核設計:單內核、模塊化(動態裝載和卸載)        (1 )Linux:單內核設計,但充分借鑑了微內核體系的設計的優點;爲內核引入了模塊化機制;        (2) 內核的組成部分:

原创 keepalived_lvs-dr實現discuz負載均衡和高可用

前言:    前一篇文章中由於前端調度器由於只有一臺,如果損壞了整個系統將無法對外提供服務,因此它成爲了系統的SPOF,需要對其做高可用,此時暫不考慮後端存儲故障的情況。經過兩個小時的配置,終於將此配置出來,下面將配置流程寫下來    由於

原创 我的友情鏈接

給我三顆痣許鼎的博客

原创 rsync+inotify實現數據同步

Rsync原理:    Rsync是基於rsync算法校驗源(SRC)與目標(DEST)之間的差異實現數據同步的。也就是說,當使用rsync工具同步數據的時候,只複製源發生改變的文件,到目標(DEST),這類似於增量備份。所以rsync同步

原创 Linux無人值守自動安裝詳細配置流程

以下配置流程均在CentOS 6.7實現實驗環境:PXE + httpd + dhcp + tftp-server + kickstart實現環境:    PXE+httpd + dhcp + tftp-server + kickstart

原创 keepalived_nginx實現discuz負載均衡和高可用

前言:    上回講到,《lvs-dr模型負載均衡高可用Discuz》,但是由於lvs過於重量級,小公司使用有點不合時宜,本回咱們使用nginx實現此功能。望各位博友笑納。    此次試驗使用nginx代替lvs作爲前端調度器,使用keep

原创 Keepalived_tengine實現discuz負載均衡和高可用

前言;    上篇博文《keepalived_nginx實現discuz負載均衡和高可用》講到,由於nginx將health_check功能放入到了商業版本,導致社區版本的nginx進行負載均衡,無法對後端的RS主機進行健康狀態檢測,所以現

原创 基於lvs-dr模型的discuz負載均衡實現

前言:lvs-dr模型與之前的lvs-nat模型情況基本差不多,只是網絡拓撲結構不同。HostVSOS:CentOS-7-x86_64hostname:ws1eno16777736: 10.0.0.60/8(DIP)eno167777336

原创 Ansible自動部署LNAMP

前言:   藉助Ansible自動部署LNAMP,實現高可用nginx反代服務器,中部http+php提供web服務,後端鏈接同一臺mysql數據庫實驗環境:ansible主機:10.0.0.10/8nginx(主):10.0.0.11/8

原创 rsync+inotify實現數據同步

Rsync原理:    Rsync是基於rsync算法校驗源(SRC)與目標(DEST)之間的差異實現數據同步的。也就是說,當使用rsync工具同步數據的時候,只複製源發生改變的文件,到目標(DEST),這類似於增量備份。所以rsync同步

原创 會話保持和動靜分離

前言:    前兩篇博客說到了keepalived_nginx 和keepalived_tengine,實現discuz的負載均衡和高可用,但是咱們沒有考慮到動態靜態資源分離,和會話保持的問題,實際上每一個部分都應該作爲單獨一臺服務器出現,

原创 我的友情鏈接

給我三顆痣許鼎的博客