一、在真機中配置網橋,使得虛擬機的網卡與真機的網卡進行連接,運行速度更快
選擇使用http的ip共享方式進行安裝。
此中選擇br0則爲網橋連接來安裝虛擬機,並於選項中有NAT的安裝方式進行對比,可以發現br0方式相對來說是更塊的一種安裝方式,原因是,但因爲使用共享方式去安裝虛擬機,真機的網卡端口去向真機內核去索要文件,內核傳給真機的網絡端口,然後真機的網絡端口又傳給虛擬機的網絡端口,但其實真機是知道安裝系統時所需要的文件,所以在走內核這條路時,會浪費大量的時間,這時網橋就體現出了他的優勢,直接將真機的網絡接口與真機的網絡接口進行了一條網橋,更加便於傳輸文件,從內核去讀取文件是一個非常浪費時間的過程。
將br0在原本路徑移除,進行br0重新搭建工作
vim ifcfg-enp2s0
進行自行搭建網橋br0
vim ifcfg-enp2s0
vim ifcfg-br0
二、網絡橋接的管理命令
brctl ##橋接管理命令
show ##顯示
addbr ##添加網橋
此時測試網絡是不通的,因爲沒有真實的物理網卡。
delbr ##刪除網橋
addif ##添加網橋連接
測試:網絡可以進行連接了
delif ##刪除網橋連接
得按照對應的程序來進行網橋連接是刪除
1、ifconfig eth0 down
2、brctl delif br0 eth0
3、ifconfig br0 down
4、brctl delbr br0
三、bond網絡
Red Hat Enterprise Linux 允許管理員使用Bonding 內核模塊和稱爲通道綁定接口的特殊網絡接口將多個網絡接口綁定到一個通道。根據選擇的綁定模式,通道綁定使兩個或更多個網絡接口作爲一個網絡接口,從而增加帶寬和/提供的冗餘性。
選擇linux以太網綁定模式
模式0(平衡輪循)-輪循策略,所有接口都使用採用輪循方式在所有slave中傳輸封包;任何slave都可以接受。
模式1(主動備份)-容錯。一次只能使用一個slave接口,但是如果該接口出現故障,另一個slave將接替它
模式3(廣播)-容錯。所有封包都通過所有slave接口廣播
##本次實驗採用的是主背模式
####只允許兩塊網卡進行交替工作
1、添加網卡
2、製作bond
nmcli connection add con-name bond0 ifname bond0 mode active-backup ip4 172.25.254.71/24
查看bond
3、需要連接上真實的物理網卡,進行交替工作,以便實驗觀察。
nmcli connection add con-name eth0 ifname eth0 type bond-slave master bond0
nmcli connection add con-name eth1 ifname eth1 type bond-slave master bond0
測試:使用監控命令watch -n 1 'cat /proc/net/bonding/bond0'進行實時監控
網絡成功連接
測試若eth0出現問題,eth1是否成功接替eth0的工作
語句:ifconfig eth0 down
結果,eth1成功接上eth0的工作
將eth0重新進行啓動,發現此時工作的仍爲eth1,則表明eth0,eth1是進行輪流工作的,沒有進行主次之分。
四、team
tean接口 Team和bond 功能類似
Team不需要手動加載相應內核模塊
Team 有更強的拓展性
支持8塊網卡
Team的種類
broadcast 廣播容錯
roundrobin 平衡輪叫
activebackup 主備
loadbalance 負載均衡
##本次實驗仍然使用主備模式
1、添加
nmcli connection add con-name team0 type team ifname team0 config '{"runner":{"name":"activebackup"}}' ip4 172.25.254.71/24
2、進行監控
watch -n 1 'teamdctl team0 state'
3、添加
nmcli connection add con-name eth0 ifname eth0 type team-slave master team0
nmcli connection add con-name eth1 ifname eth1 type team-slave master team0
測試:
同上:使得正在工作的eth0發生故障,查看實驗效果:ifconfig eth0 down
又使得eth0成功修復,工作的依舊爲eth1,則eth0與eth1沒有優先級之分
刪除步驟: