CetnOS/RHEL/Kylin网卡设置bond

场景需求:在服务器有多张网卡的情况下可以多张网卡做成一张网卡使用同一IP对外提供访问

Bond Mode

Bonding的模式一共有7种

balance-rr (0)

默认模式; 表示负载分担 round-robin,并且是轮询的方式比如第一个包走 eth0,第二个包走 eth1,直到数据包发送完毕。

  • 优点:流量提高一倍
  • 缺点:需要接入交换机做端口聚合,否则可能无法使用

active-backup (1)

主备模式(常用);即同时只有1块网卡在工作。

  • 优点:冗余性高
  • 缺点:链路利用率低,两块网卡只有1块在工作

balance-xor (2)

平衡策略;表示 XOR Hash 负载分担,和交换机的聚合强制不协商方式配合。(需要 xmit_hash_policy ,需要交换机配置 port channel

  • 特点:基于指定的传输 hash 策略传输数据包。缺省的策略是:(源MAC地址 XOR 目标MAC地址) % slave数量。其他的传输策略可以通过 xmit_hash_policy 选项指定,此模式提供负载平衡和容错能力。

broadcast (3)

广播策略;表示所有包从所有网络接口发出,这个不均衡,只有冗余机制,但过于浪费资源。此模式适用于金融行业,因为他们需要高可靠性的网络,不允许出现任何问题。需要和交换机的聚合强制不协商方式配合。

  • 特点:在每个slave接口上传输每个数据包,此模式提供了容错能力。

802.3ad (4)

IEEE 802.3ad 动态链接聚合;表示支持 802.3ad 协议,和交换机的聚合LACP方式配合(需要 xmit_hash_policy )。标准要求所有设备在聚合操作时,要在同样的速率和双工模式,而且,和除了balance-rr模式外的其它 bonding 负载均衡模式一样,任何连接都不能使用多于一个接口的带宽。

  • 特点:创建一个聚合组,它们共享同样的速率和双工设定。根据 802.3ad 规范将多个 slave 工作在同一个激活的聚合体下。外出流量的 slave 选举是基于传输 hash 策略,该策略可以通过 xmit_hash_policy 选项从缺省的XOR策略改变到其他策略。需要注意的是,并不是所有的传输策略都是 802.3ad 适应的,尤其考虑到在 802.3ad 标准43.2.4章节提及的包乱序问题。不同的实现可能会有不同的适应性。
  • 必要条件:
  • 条件1:ethtool 支持获取每个 slave 的速率和双工设定
  • 条件2:switch (交换机)支持 IEEE802.3ad Dynamic link aggregation
  • 条件3:大多数 switch (交换机)需要经过特定配置才能支持 802.3ad 模式

balance-tlb (5)

适配器传输负载均衡;根据每个 slave 的负载情况选择 slave 进行发送,接收时使用当前轮到的 slave。该模式要求 slave 接口的网络设备驱动有某种 ethtool 支持;而且 ARP 监控不可用。

  • 特点:不需要任何特别的 switch (交换机)支持的通道 bonding。在每个 slave 上根据当前的负载(根据速度计算)分配外出流量。如果正在接受数据的 slave 出故障了,另一个 slave接管失败的 slave 的 MAC 地址。
  • 必要条件:ethtool 支持获取每个 slave 的速率

Balance-alb (6)

适配器适应性负载均衡;在5的tlb基础上增加了rlb(接收负载均衡receiveload balance).不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。

  • 特点:该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receiveload balance, rlb),而且不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。来自服务器端的接收流量也会被均衡。当本机发送ARP请求时,bonding驱动把对端的IP信息从ARP包中复制并保存下来。当ARP应答从对端到达时,bonding驱动把它的硬件地址提取出来,并发起一个ARP应答给bond中的某个slave。使用ARP协商进行负载均衡的一个问题是:每次广播 ARP请求时都会使用bond的硬件地址,因此对端学习到这个硬件地址后,接收流量将会全部流向当前的slave。这个问题可以通过给所有的对端发送更新(ARP应答)来解决,应答中包含他们独一无二的硬件地址,从而导致流量重新分布。当新的slave加入到bond中时,或者某个未激活的slave重新激活时,接收流量也要重新分布。接收的负载被顺序地分布(round robin)在bond中最高速的slave上当某个链路被重新接上,或者一个新的slave加入到bond中,接收流量在所有当前激活的slave中全部重新分配,通过使用指定的MAC地址给每个 client发起ARP应答。下面介绍的updelay参数必须被设置为某个大于等于switch(交换机)转发延时的值,从而保证发往对端的ARP应答不会被switch(交换机)阻截。

小结

mode5和mode6不需要交换机端的设置,网卡能自动聚合。mode4需要支持802.3ad。mode0,mode2和mode3理论上需要静态聚合方式。

备份网卡配置

备份现有网卡配置

shell
1
2
mkdir /tmp/net_bak
cp /etc/sysconfig/network-scripts/ifcfg-* /tmp/net_bak

查看备份文件

shell
1
ls /tmp/net_bak

配置bond

生成 bond 配置文件

shell
1
nmcli connection add type bond ifname bond0 mode 1

将网卡 eno33554960eno50332184 绑定到 bond0

shell
1
2
nmcli connection add type bond-slave ifname eno33554960 master bond0
nmcli connection add type bond-slave ifname eno50332184 master bond0

查看生成的配置文件

shell
1
2
# ls /etc/sysconfig/network-scripts/ifcfg-bond-*
ifcfg-bond-bond0 ifcfg-bond-slave-eno33554960 ifcfg-bond-slave-eno50332184

配置bond网卡

shell
1
vim /etc/sysconfig/network-scripts/ifcfg-bond-bond0

修改为静态IP

/etc/sysconfig/network-scripts/ifcfg-bond-bond0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
DEVICE=bond0

BONDING_OPTS=mode=active-backup

TYPE=Bond

BONDING_MASTER=yes

# 将 dhcp 改为static

BOOTPROTO=static

DEFROUTE=yes

PEERDNS=yes

PEERROUTES=yes

IPV4_FAILURE_FATAL=no

IPV6INIT=yes

IPV6_AUTOCONF=yes

IPV6_DEFROUTE=yes

IPV6_PEERDNS=yes

IPV6_PEERROUTES=yes

IPV6_FAILURE_FATAL=no

NAME=bond-bond0

UUID=af2d6662-608c-4f5d-8018-1984cc3d87ef

ONBOOT=yes

# 配置 IP 地址

IPADDR=10.13.4.51

# 配置掩码 也可以使用 NETMASK=255.255.255.0

PREFIX=24

# 配置网关

GATEWAY=10.13.4.254

修改完成后重启网卡并验证配置结果

shell
1
2
systemctl restart network
ip addr

查看 bond 信息

shell
1
cat /proc/net/bonding/bond0

删除bond

查看网卡

shell
1
ls /sys/class/net/

删除bond网卡

直接删除 bond0,会提示无权限

可以通过 bonding_masters 文件删除 bond 设备,但是 bonding_masters 文件是无法直接修改的。

1
echo -bond0 >/sys/class/net/bonding_masters

注:echo 后面的 - 是删除设备,+ 是增加设备

参考文章:
Linux双网卡绑定bond详解

评论

:D 一言句子获取中...

加载中,最新评论有1分钟缓存...