原创 公司的實戰Replica Sets+Sharding方案
公司的實戰Replica Sets+Sharding方案公司mongo集羣分片實戰準備九臺服務器,分片1: 172.16.0.124:11731 主 172.16.0.
原创 heartbeat+DRBD+mysql高可用集羣實戰
heartbeat+DRBD+mysql高可用集羣實戰四臺主機主機名 IP地址 用途dbm128 172.16.0.128
原创 Linux下安裝mysql
安裝系統所需要的依賴包[root@namenode ~]# yum -y install gcc gcc-c++ gcc-g77 autoconf automake zlib* fiex* libxml* ncurses-devel li
原创 解決 rm -rf *
linux中的 rm -rf * 刪除文件確實很快,可以如果養成經常用 rm -rf * 這個習慣可就不好了。一不小心就把你重要的資料給刪了。。。。 用rm刪除的文件是很難恢復的。爲了不讓 rm -rf * 給我們帶來的損失 ,我們可以把
原创 公司的實戰Replica Sets+Sharding方案採用配置文件2
公司的實戰Replica Sets+Sharding方案採用配置文件2公司mongo集羣分片實戰服務器三臺 主機1(172.16.0.115) 主機2(172.1
原创 nginx反向代理上網
例如我有一臺內網爲172.16.0.100,可以上網,其他內網都不可以。我們就採用nginx反向代理。在nginx後面增加以下內容: server{ resolver 202.101.172.35; listen 82;
原创 mysql 備份腳本
全量備份:#!/bin/bash#mysql全量備份腳本#mkdir/backupcd/backupdateDIR=`date+"%y-%m-%d"`mkdir-p$dateDIR/datapath=/var/lib/mysqlforiin
原创 實戰hadoop2.6.3+zookeeper3.4.6+hbase1.0.2高可用集羣方案
實戰hadoop2.6.3+zookeeper3.4.6+hbase1.0.2高可用集羣方案一、安裝前準備1.環境5臺2、修改hosts文件[root@hadoop01 ~]# cat /etc/hosts192.168.10.201had
原创 centos6.5下postgresql9.4.3同步流複製的standby安裝與配置
一、同步流複製的架構 PostgreSQL從9.1版本之後提供了同步複製的架構。同步複製要求在數據寫入Standby數據庫後,事務的commit才返回,所以Standby庫出現問題時,會導致主庫被hang住。解決這個問題的方
原创 設置LINUX防火牆開啓與關閉
(1) 重啓後永久性生效: 開啓:chkconfig iptables on 關閉:chkconfig iptables off (2) 即時生效,重啓後失效: 開啓:service iptables start 關閉:
原创 jumpserver跳板機安裝與配置實戰
jumpserver安裝與配置參考jumpserver官網http://docs.jumpserver.org/zh/docs/step_by_step.html一、準備python3和python虛擬環境1.1安裝依賴包yum -y in
原创 greenplum分佈式集羣(數據倉庫)實戰
1.準備環境1.1集羣介紹系統環境:centos6.5數據庫版本:greenplum-db-4.3.3.1-build-1-RHEL5-x86_64.zipgreenplum集羣中,4臺機器IP分別是[root@dw-greenplum-1
原创 LINUX防火牆設置
vi /etc/sysconfig/iptables增加你需要的端口# Firewall configuration written by system-config-firewall# Manual customization of th
原创 mysql5.5.46升級到Percona Server 5.6.27
1.升級前的準備查看本機openssl版本root@DB-Slave mysql5.6]# rpm -qa | grep sslopenssl-1.0.1e-42.el6_7.2.x86_64openssl-devel-1.0.1e-42.
原创 centos6.5下postgresql9.4.3安裝與配置
一、簡介PostgreSQL 是一種非常複雜的對象-關係型數據庫管理系統(ORDBMS),也是目前功能最強大,特性最豐富和最複雜的自由軟件數據庫系統。有些特性甚至連商業數據庫都不具備。這個起源於伯克利(BSD)的數據庫研究計劃目前已經衍生成