
查看下eth0网卡信息
[root@cloud
~]#
mii-tool
-v
eth0
eth0:
negotiated
100baseTx-FD
flow-control,
link
ok
product
info:
vendor
00:00:20,
model
32
rev
1
basic
mode:
autonegotiation
enabled
basic
status:
autonegotiation
complete,
link
ok
capabilities:
100baseTx-FD
100baseTx-HD
10baseT-FD
10baseT-HD
advertising:
100baseTx-FD
100baseTx-HD
10baseT-FD
10baseT-HD
flow-control
link
partner:
100baseTx-FD
100baseTx-HD
10baseT-FD
10baseT-HD
flow-control
从上面可以看出eth0
工作
100M全双工自适应模式下
[root@cloud
~]#
ethtool
eth0
Settings
for
eth0:
Supported
ports:
[
TP
MII
]
Supported
link
modes:
10baseT/Half
10baseT/Full
100baseT/Half
100baseT/Full
Supports
auto-negotiation:
Yes
Advertised
link
modes:
10baseT/Half
10baseT/Full
100baseT/Half
100baseT/Full
Advertised
pause
frame
use:
Symmetric
Receive-only
Advertised
auto-negotiation:
Yes
Link
partner
advertised
link
modes:
10baseT/Half
10baseT/Full
100baseT/Half
100baseT/Full
Link
partner
advertised
pause
frame
use:
Symmetric
Receive-only
Link
partner
advertised
auto-negotiation:
Yes
Speed:
100Mb/s
Duplex:
Full
Port:
MII
PHYAD:
0
Transceiver:
internal
Auto-negotiation:
on
Supports
Wake-on:
pumbg
Wake-on:
g
Current
message
level:
0x00000033
(51)
Link
detected:
yes
[root@cloud
~]#
将多个Linux网络端口绑定为一个,可以提升网络的性能,比如对于备份服务器,需要在一个晚上备份几个T的数据,如果使用单个的千兆网口将会是很严重的瓶颈。其它的应用,比如ftp服务器,高负载的下载网站, 都有类似的问题。因此使用Linux teaming或bond来绑定多个网卡作为一个逻辑网口,配置单个的IP地址,会大幅提升服务器的网络吞吐(I/O)。Linux的多网卡绑定功能使用的是内核中的"bonding"模块,关于此模块可以参考Linux Ethernet Bonding Driver文档, 但是目前发布各个Linux版本内核均已包含了此模块,大多数情况下不需要重新编译内核。 Linux 的 bonding 驱动提供了绑定/集成(bond)多个网卡为一个虚拟逻辑网口的功能。并请注意绑定的网口(bonded)有多种工作模式一般来说,分为 热后备(hot standby) 和 负载均衡(load balancing). 在Redhat/Fedora和其它类Redhat Linux中是比较容易配置的。
发现工作中可能会用到Linux下网卡绑定相关的知识。找了些文章看,然后一通混剪,各家所长为我所用。
网卡bond,即网卡绑定,也称作网卡捆绑。网卡绑定有多种称谓:Port Trunking, Channel Bonding, Link Aggregation, NIC teaming等等,其实说的是一回事。就是将两个或者更多的物理网卡绑定成一个虚拟网卡。通过绑定可以达到链路冗余、带宽倍增、负载均衡等目的。是生产场景中提高性能和可靠性的一种常用技术。
Linux内置了网卡绑定的驱动程序,可以将多个物理网卡分别捆绑成多个不同的逻辑网卡(例如把eth0、eth1捆绑成bond0,把eth2、eth3捆绑成bond1)。对于每一个bond接口来说,可以分别定义不同的绑定模式和链路监视选项。
对应于不同的负载均衡和容错特性需求,Linux网卡bond的模式共有bond0-bond6共7种。
表示负载分担round-robin,并且是轮询的方式,比如第一个包走eth0,第二个包走eth1,直到数据包发送完毕。
表示主备模式,即同一时间时只有1块网卡在工作。
表示使用MAC地址的XOR Hash负载分担,网络上特定的通信双方会始终经由某一个网卡的链路通信,和交换机的聚合强制不协商方式配合。(需要xmit_hash_policy [1] ,需要交换机配置port channel)
表示所有包从所有绑定的网络接口发出,不考虑均衡流量的分担,只有冗余机制,但过于浪费资源。此模式适用于金融行业,因为他们需要高可靠性的网络,不允许出现任何问题。需要和交换机的聚合强制不协商方式配合。
表示支持802.3ad协议,和交换机的聚合LACP方式配合(需要xmit_hash_policy).标准要求所有设备在聚合 *** 作时,要在同样的速率和双工模式。
是根据每个slave的负载情况选择slave进行发送,接收时使用当前轮到的slave。该模式要求slave接口的网络设备驱动有某种ethtool支持;而且ARP监控不可用。
在5的tlb基础上增加了rlb(接收负载均衡receiveload balance).不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的.
模式1、模式5和模式6不需要交换机端的设置,网卡能自动聚合。模式4需要支持802.3ad。模式0,模式2和模式3理论上需要静态聚合方式。 (据说实测中模式0可以通过mac地址欺骗的方式在交换机不设置的情况下不太均衡地进行接收。)
创建ifcfg-bond0文件,配置IP地址、子网掩码、网关等参数。
修改eth0、eth1、eth2的配置文件,注释或删除IP地址、掩码、网关和MAC地址的配置,添加关于MASTER和SLAVE的设置
根据实际需求,选择合适的bonding模式,为bond0设置bonding kernel module。
在 /etc/modprobe.conf 中添加以下内容
确认模块是否加载成功
重启网络(或重启主机):
查看bond0的状态:
另外还可以使用 ifconfig -a | grep HWaddr 查看bond0接口是否处于活动状态,以及各网卡MAC地址情况。
从上面的确认信息中,我们可以看到3个重要信息:
1.现在的bonding模式是active-backup
2.现在Active状态的网口是eth2
3.bond0,eth0、eth1、的物理地址和处于active状态下的eth2的物理地址相同,这样是为了避免上位交换机发生混乱。
可以ping一个远程地址,然后断开Active状态的eth2口网线,验证主备模式是否能正常切换,业务是否受到影响。
将网口添加到bond中:ifenslave bond eth0 eth1【bond要先up】
将bond中删除网口:ifenslave -d bond eth0
bond中网口主备倒换:ifenslave -c bond eth1
前面只是3个网口绑定成一个bond1的情况,如果我们要设置多个bond口,比如物理网口eth0和eth1组成bond0,eth2和eth3组成bond1应该如何设置呢?
网口设置文件的设置方法和上面第1步讲的方法相同,只是/etc/modprobe.d/bonding.conf的设定就不能像下面这样简单的叠加了:
正确的设置方法有2种:
第一种: 你可以看到,这种方式的话,多个bond口的模式就只能设成相同的了:
第二种: 这种方式,不同的bond口的mode可以设成不一样:
按照上面这2种设置方法,现在如果是要设置3个,4个,甚至更多的bond口,可是可以的。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)