RAID5+LVM的機制

RAID5和LVM的組合

導讀:首先祝所有的程序猿/媛1024快樂!本文主要講解了在RAID5的基礎上建立LVM的磁盤冗餘管理機制(主要是建立與測試)。

零、首先新機器我們需要相應的命令

yum install vim -y
yum install lvm -y
yum install mdadm -y

一、添加硬盤

在這裏插入圖片描述
在這裏插入圖片描述
鏡像沒掛載,那肯定用不了yum啦
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述

二、分區

[root@web dev]# fdisk /dev/sdb
在這裏插入圖片描述
[root@web dev]# fdisk /dev/sdc
在這裏插入圖片描述
[root@web dev]# fdisk /dev/sdd
在這裏插入圖片描述
[root@web dev]# fdisk /dev/sde
在這裏插入圖片描述

三、創建raid5:創建raid5,編輯配置文件

[root@web ~]# mdadm --create /dev/md0 --level=5 --raid-devices=3 --spare-devices=1 /dev/sd[b-e]1
//創建raid5磁盤冗餘陣列
在這裏插入圖片描述
[root@web ~]# mdadm --detail /dev/md0 //查看是否創建成功
在這裏插入圖片描述
很明顯創建成功了
在這裏插入圖片描述
[root@web ~]# mdadm --detail --scan > /etc/mdadm.conf //創建raid5配置文件
在這裏插入圖片描述
在這裏插入圖片描述

四、創建lvm:物理卷,卷組,邏輯卷

[root@web ~]# pvcreate /dev/md0 //創建物理卷/dev/md0
在這裏插入圖片描述
[root@web ~]# vgcreate myraidvg /dev/md0 //創建卷組myraidvg
在這裏插入圖片描述
[root@web ~]# lvcreate -n myraidlv -L 6G myraidvg
//創建名爲myraidlv大小爲6G的邏輯卷,從卷組myraidvg中分配容量
在這裏插入圖片描述
在這裏插入圖片描述

五、格式化,掛載,自動掛載

在這裏插入圖片描述
[root@web /]# mkfs.ext4 /dev/myraidvg/myraidlv //格式化文件系統
在這裏插入圖片描述
[root@web /]# mount /dev/myraidvg/myraidlv /raidlvm/ //掛載
在這裏插入圖片描述
//開機自動掛載
在這裏插入圖片描述

六、檢查,測試

重啓後進入
在這裏插入圖片描述
[root@web ~]# mdadm --detail /dev/md0
在這裏插入圖片描述
在這裏插入圖片描述
一切正常,開始測試:
在這裏插入圖片描述
在這裏插入圖片描述

1.首先測試raid5能否進行io操作

[root@web raidlvm]# dd if=/dev/zero of=/raidlvm/test bs=1M count=20
在這裏插入圖片描述

2.模擬維護raid5

(1)查看到當前陣列的狀態(完好時) //查看到當前陣列的狀態

在這裏插入圖片描述

(2)模擬故障磁盤

在實際中,當軟RAID檢測到某個磁盤有故障時,會自動標記該磁盤爲故障磁盤,並停止對故障磁盤的讀寫操作,所以這裏需要將/dev/sdb1標記爲出現故障的磁盤,命令如下:
[root@web ~]# mdadm /dev/md0 --fail /dev/sdb1 //模擬故障磁盤
在這裏插入圖片描述
查看
在這裏插入圖片描述

(3)分析

以上信息表明陣列正在重建,當一個設備出現故障或被標記故障時,相應設備的方括號後將被標以(F),如“sdb10”,其中“[3/2]”的第一位數表示陣列所包含的設備數,第二位數表示活動的設備數,因爲目前有一個故障設備,所以第二位數爲2;這時的陣列以降級模式運行,雖然該陣列仍然可用,但是不具有數據冗餘;而“[_UU]”表示當前陣列可以正常使用的設備是/dev/sdc1和/dev/sdd1,如果是設備“/dev/sdc1”出現故障時,則將變成[U_U]。

(4)重建完數據後

再次查看陣列狀態時,就會發現當前的RAID設備又恢復了正常,如下:
[root@web ~]# cat /proc/mdstat
在這裏插入圖片描述

(5)移除故障磁盤

既然“/dev/sdb1”出現了故障,當然要移除該設備,移除故障磁盤的操作如下:
[root@web ~]# mdadm /dev/md0 --remove /dev/sdb1
在這裏插入圖片描述
在這裏插入圖片描述
查看raidlvm陣列數據是否丟失:
在這裏插入圖片描述
測試raidlvm陣列是否仍然可用:
在這裏插入圖片描述

(6)添加新硬盤

(先添加一塊硬盤並分區,/dev/sdf1)
在這裏插入圖片描述
分區
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
由於例子中的RAID 5設置了一個備用設備,所以不需要做任何操作RAID 5也能正常運行,但是如果這時某塊磁盤再出現故障的話,會導致RAID 5沒有數據冗餘功能,這對於存放重要的數據的設備來說顯得太不安全了。那麼這時增加到RAID 5中的“/dev/sdf1”則作爲備用設備出現在陣列中,如下:

[root@cent7 dev]# mdadm /dev/md0 --add /dev/sdf1
//將/dev/sdf1加入到磁盤冗餘陣列及lvm中
在這裏插入圖片描述
[root@cent7 dev]# mdadm --detail /dev/md0 //查看raid5lvm狀態
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述
在這裏插入圖片描述

(7)修改配置文件

首先,如果不修改配置文件,那麼重啓或再次進入時,就會出現下圖的情況
在這裏插入圖片描述
即:/dev/sdf1沒有自動掛載到陣列中
所以我們需要修改raid5的配置文件 /etc/mdadm.conf
在這裏插入圖片描述
wq保存後,退出,重啓,發現一切ok!
在這裏插入圖片描述

七、總結:

1.RAID和LVM的組合與單獨創建raid5和lvm的步驟是有區別的
2.當磁盤損壞,添加新的熱備盤後,需要修改raid5的配置文件
3.由於作者水平有限,本次測試中可能存在一些問題,希望大家批評指正,感激不盡!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章