运维笔记28 (在集群上部署ip,http,存储等)

概述:

       之前我们已经将集群假设好了,也部署了fence断电管理,就差把服务放上去跑跑了,我们以http服务为例子,我们的这个服务需要的资源有ip,存储,服务软件,将这些部署到集群上之后,我们再测试一下我们部署的服务是不是高可用,今天的部署主要在web界面上进行。

1.添加切换服务的域

选择Add,添加一个域

首先定义名字,接下来的三个选项分别是按照结点优先级去进行服务,只在选定结点内切换服务,当从一个结点切换到另一个结点的时候不再自动切换回原先的结点。最下面是选择我们要添加的结点。

显示这样的标志表示添加成功。

2.添加资源

我们的http服务,需要三种资源,分别是ip,存储,服务,我们先不管存储,直接让存储在结点上,最后再搞定存储。

点击添加资源后,在这里选择添加一个ip资源。

ip资源的设置如上。


添加apache资源,我们选择用脚本的方式配置apache

这样就添加好了两个资源


3.整合资源组

最后一步,就是让两个资源组合起来成一个服务组,添加到服务组中。而且在server1和server2上安装http服务。

给这个服务组起名字,然后勾选服务自启动,而且服务独占,选择切换域名,选择切换策略(迁移)。

添加我们刚才配置的ip,http资源。

点击上面的开始按键就开启了这个服务组。

这时候回到命令行用命令查看状态。

[root@server1 html]# clustat 
Cluster Status for newmo @ Wed Feb 15 03:37:57 2017
Member Status: Quorate

 Member Name                    ID   Status
 ------ ----                    ---- ------
 server1.mo.com                     1 Online, Local, rgmanager
 server2.mo.com                     2 Online, rgmanager

 Service Name          Owner (Last)          State         
 ------- ----          ----- ------          -----         
 service:apache        server2.mo.com        started   
命令显示两台机器正常,而且服务在server2上运行。

[root@server1 html]# clusvcadm -e apache
这是自启并且开启apache服务

[root@server1 html]# clusvcadm -d apache
关闭apache的自启动并且关闭服务,现在测试一下是否高可用。我们将server2上的http服务手动关闭。

[root@server2 html]# /etc/init.d/httpd stop
这时候看下集群的状况。

[root@server1 html]# clustat 
Cluster Status for newmo @ Wed Feb 15 03:41:06 2017
Member Status: Quorate

 Member Name                    ID   Status
 ------ ----                    ---- ------
 server1.mo.com                     1 Online, Local, rgmanager
 server2.mo.com                     2 Online, rgmanager

 Service Name          Owner (Last)          State         
 ------- ----          ----- ------          -----         
 service:apache        server1.mo.com        started  
已经将服务切换到了server1。

4.添加存储资源

真正环境下的服务,存储都不在结点机上,而是一台数据库服务器其他的服务器上,我们也是这样实验,现在使用server3作为存储服务器,做一个iscsi网络分享存储。

给虚拟机添加一块8G的硬盘

Disk /dev/vda: 8589 MB, 8589934592 bytes
16 heads, 63 sectors/track, 16644 cylinders
Units = cylinders of 1008 * 512 = 516096 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00000000

服务端scsi:

yum install scsi-target-utils.x86_64 0:1.0.24-10.el6 
修改配置文件/etc/tgt/targets.conf

<target iqn.2008-09.com.example:server.target1>
    backing-store /dev/vda
    initiator-address 172.25.9.20
    initiator-address 172.25.9.21
</target>
然后启动服务,就将这个存储分享了
[root@server3 ~]# /etc/init.d/tgtd start
Starting SCSI target daemon:                               [  OK  ]
查看一下是否分享成功

[root@server3 ~]# tgt-admin --show
Target 1: iqn.2008-09.com.example:server.target1
    System information:
        Driver: iscsi
        State: ready
    I_T nexus information:
    LUN information:
        LUN: 0
            Type: controller
            SCSI ID: IET     00010000
            SCSI SN: beaf10
            Size: 0 MB, Block size: 1
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            Backing store type: null
            Backing store path: None
            Backing store flags: 
        LUN: 1
            Type: disk
            SCSI ID: IET     00010001
            SCSI SN: beaf11
            Size: 8590 MB, Block size: 512
            Online: Yes
            Removable media: No
            Prevent removal: No
            Readonly: No
            Backing store type: rdwr
            Backing store path: /dev/vda
            Backing store flags: 
    Account information:
    ACL information:
        172.25.9.20
        172.25.9.21
如上就分享成功了。

客户端iscsi:

在server1上

安装iscsi*,也就是iscsi-initiator-utils-6.2.0.873-10.el6.x8。

发现设备

[root@server1 html]# iscsiadm -m discovery -t st -p 172.25.9.22
Starting iscsid:                                           [  OK  ]                                                       [  OK  ]
172.25.9.22:3260,1 iqn.2008-09.com.example:server.target1
添加设备

[root@server1 html]# iscsiadm -m node -l
Logging in to [iface: default, target: iqn.2008-09.com.example:server.target1, portal: 172.25.9.22,3260] (multiple)
Login to [iface: default, target: iqn.2008-09.com.example:server.target1, portal: 172.25.9.22,3260] successful.
现在查看客户端的设备,是否有分享出的设备,发现已经有了。

分区,格式化后就可使用了。之后是创建逻辑卷。

[root@server1 html]# pvcreate /dev/sdb1
  dev_is_mpath: failed to get device for 8:17
  Physical volume "/dev/sdb1" successfully created
[root@server1 html]# pvs
  PV         VG       Fmt  Attr PSize  PFree
  /dev/sda2  VolGroup lvm2 a--  19.51g    0 
  /dev/sdb1           lvm2 a--   8.00g 8.00g
这时切换到server2,进行设备发现等后,使用pvs,看下是否有物理卷。两边如果都发现了sdb1 8G的物理卷也就成功了。

继续创建vg,lv,在server1上

[root@server1 html]# vgcreate clustervg /dev/sdb1
  Clustered volume group "clustervg" successfully created
[root@server1 html]# vgs
  VG        #PV #LV #SN Attr   VSize  VFree
  VolGroup    1   2   0 wz--n- 19.51g    0 
  clustervg   1   0   0 wz--nc  8.00g 8.00g

[root@server1 html]# lvcreate -n lvclu -L 4g clustervg
[root@server1 html]# lvs
  LV      VG        Attr       LSize   Pool Origin Data%  Move Log Cpy%Sync Convert
  lv_root VolGroup  -wi-ao----  18.54g                                             
  lv_swap VolGroup  -wi-ao---- 992.00m                                             
  lvclu   clustervg -wi-a-----   4.00g         
存储创建好了,现在有两种方式来使用这个存储,一种是仍然使用Conga来用脚本管理,第二中是使用GFS文件系统,就不需要使用管理软件了。

第一种:

 

填写的信息如上所显示,然后将资源加入服务组,此时请注意服务的顺序,存储一定要在服务的前面,先启动存储才能有服务

开启服务组测试,建议使用clusvcadm -e apache开启服务

[root@server1 html]# clustat 
Cluster Status for newmo @ Wed Feb 15 04:36:34 2017
Member Status: Quorate

 Member Name                    ID   Status
 ------ ----                    ---- ------
 server1.mo.com                     1 Online, Local, rgmanager
 server2.mo.com                     2 Online, rgmanager

 Service Name          Owner (Last)          State         
 ------- ----          ----- ------          -----         
 service:apache        server1.mo.com        started 
服务已经开启而且通过ip命令也可以看到ip被加到了这个机器上

2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
    link/ether 52:54:00:31:79:cb brd ff:ff:ff:ff:ff:ff
    inet 172.25.9.20/24 brd 172.25.9.255 scope global eth0
    inet 172.25.9.101/24 scope global secondary eth0
    inet6 fe80::5054:ff:fe31:79cb/64 scope link 
       valid_lft forever preferred_lft forever
这个台机器被添加了一个ip,就是我们集群加的ip


發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章