[Linux] 总结各系统 双网卡绑定
Rhel 6.X绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片# vi /etc/sysconfig/network-scripts/ifcfg-bond0DEVICE=bond0ONBOOT=yesBOOTPROTO=staticIPADDR=NETMASK=GATEWAY=USERCTL=noBONDI
Rhel 6.X
绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片
# vi /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0 ONBOOT=yes BOOTPROTO=static IPADDR= NETMASK= GATEWAY= USERCTL=no BONDING_OPTS=“mode=1 miimon=100” |
这里要主意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。
说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。
mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。
mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份。
bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用
vi /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0 ONBOOT=yes BOOTPROTO=none MASTER=bond0 USERCTL=no |
# vi /etc/sysconfig/network-scripts/ifcfg-eth1
DEVICE=eth1 ONBOOT=yes BOOTPROTO=none MASTER=bond0 USERCTL=no |
# vi /etc/modprobe.d/bond0.conf
编辑 /etc/modules.conf文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0
alias bond0 bonding |
# vi /etc/rc.local
ifenslave bond0 eth0 eth1 |
到这时已经配置完毕重新启动机器。
重启会看见以下信息就表示配置成功了
。..。..。..。..。..。
Bringing up interface bond0 OK
Bringing up interface eth0 OK
Bringing up interface eth1 OK
这样我们就完成Linux双网卡绑定一个IP的具体操作工作
备注:网卡(NIC)绑定技术有助于保证高可用性特性并提供其它优势以提高网络性能,我们在这介绍的Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中 早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。 bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接 收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的 Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理
Rhel 7.X
第一种:
# vi /etc/sysconfig/network-scripts/ifcfg-bond0
TYPE=Ethernet BOOTPROTO=static DEVICE=bond0 NAME=bond0 TYPE=Bond BONDING_MASTER=yes ONBOOT=yes IPADDR= NETMASK= GATEWAY= BONDING_OPTS="mode=1 miimon=100" |
# vi /etc/sysconfig/network-scripts/ifcfg-enp2s0f1
TYPE=Ethernet BOOTPROTO=none NAME=enp2s0f1 DEVICE=enp2s0f1 ONBOOT=yes BONDING_MASTER=yes MASTER=bond0 SLAVE=yes |
# vi /etc/sysconfig/network-scripts/ifcfg-enp2s0f0
TYPE=Ethernet BOOTPROTO=none NAME=enp2s0f0 DEVICE=enp2s0f0 ONBOOT=yes BONDING_MASTER=yes MASTER=bond0 SLAVE=yes |
2、第二种
# 添加 con-name team0 配置文件为team0,ifnameteam0 虚拟链路网卡为team0,team 类型为聚合链路,配置引用驱动类型为activebackup
# nmcli connectionadd con-name team0 ifname team0 type team config '{"runner":{"name": "activebackup"}}'
# 为聚合链路添加IP,启动方式网卡开机自动启动,以手动方式获取IP
# nmcli connectionmodify team0 ipv4.addresses 172.16.3.40/24 connection.autoconnect yesipv4.method manual
# 添加配置文件为team0-slave1,对应物理网卡为eth1,类型是聚合链路的重接口,是team0聚合链路的重接口
# nmcli connection add con-name team0-slave1 ifname eth1 typeteam-slave master team0
# 添加配置文件为team0-slave2,对应物理网卡为eth2,类型是聚合链路的重接口,是team0聚合链路的重接口
# nmcli connection add con-name team0-slave2 ifname eth2 typeteam-slave master team0
# 激活聚合链路team0
# nmcli connectionup team0
# 查看状态,均UP
# teamdctl team0state
FreeBSD 8.x & 10.x
# vi /etc/rc.conf
ifconfig_igb0="up" ifconfig_igb1="up" cloned_interfaces="lagg0" ifconfig_lagg0="laggproto failover laggport igb0 laggport igb1" ipv4_addrs_lagg0="192.168.1.2/24" defaultrouter="192.168.1.1" |
HP-UX 11.31
参考 http://blog.itpub.net/26194851/viewspace-750891/
更多推荐
所有评论(0)