如何查看linux系统网卡的工作模式和速率

如何查看linux系统网卡的工作模式和速率,第1张

有时候,我们需要看下linux系统网卡工作模式、速率等,比较常用到的命令是mii-tool、ethtool,下面简单看下即可。

查看下eth0网卡信息

[root@cloud

~]#

mii-tool

-v

eth0

eth0:

negotiated

100baseTx-FD

flow-control,

link

ok

product

info:

vendor

00:00:20,

model

32

rev

1

basic

mode:

autonegotiation

enabled

basic

status:

autonegotiation

complete,

link

ok

capabilities:

100baseTx-FD

100baseTx-HD

10baseT-FD

10baseT-HD

advertising:

100baseTx-FD

100baseTx-HD

10baseT-FD

10baseT-HD

flow-control

link

partner:

100baseTx-FD

100baseTx-HD

10baseT-FD

10baseT-HD

flow-control

从上面可以看出eth0

工作

100M全双工自适应模式下

[root@cloud

~]#

ethtool

eth0

Settings

for

eth0:

Supported

ports:

[

TP

MII

]

Supported

link

modes:

10baseT/Half

10baseT/Full

100baseT/Half

100baseT/Full

Supports

auto-negotiation:

Yes

Advertised

link

modes:

10baseT/Half

10baseT/Full

100baseT/Half

100baseT/Full

Advertised

pause

frame

use:

Symmetric

Receive-only

Advertised

auto-negotiation:

Yes

Link

partner

advertised

link

modes:

10baseT/Half

10baseT/Full

100baseT/Half

100baseT/Full

Link

partner

advertised

pause

frame

use:

Symmetric

Receive-only

Link

partner

advertised

auto-negotiation:

Yes

Speed:

100Mb/s

Duplex:

Full

Port:

MII

PHYAD:

0

Transceiver:

internal

Auto-negotiation:

on

Supports

Wake-on:

pumbg

Wake-on:

g

Current

message

level:

0x00000033

(51)

Link

detected:

yes

[root@cloud

~]#

将多个Linux网络端口绑定为一个,可以提升网络的性能,比如对于备份服务器,需要在一个晚上备份几个T的数据,如果使用单个的千兆网口将会是很严重的瓶颈。其它的应用,比如ftp服务器,高负载的下载网站, 都有类似的问题。因此使用Linux teaming或bond来绑定多个网卡作为一个逻辑网口,配置单个的IP地址,会大幅提升服务器的网络吞吐(I/O)。

Linux的多网卡绑定功能使用的是内核中的"bonding"模块,关于此模块可以参考Linux Ethernet Bonding Driver文档, 但是目前发布各个Linux版本内核均已包含了此模块,大多数情况下不需要重新编译内核。 Linux 的 bonding 驱动提供了绑定/集成(bond)多个网卡为一个虚拟逻辑网口的功能。并请注意绑定的网口(bonded)有多种工作模式一般来说,分为 热后备(hot standby) 和 负载均衡(load balancing). 在Redhat/Fedora和其它类Redhat Linux中是比较容易配置的。

发现工作中可能会用到Linux下网卡绑定相关的知识。找了些文章看,然后一通混剪,各家所长为我所用。

网卡bond,即网卡绑定,也称作网卡捆绑。网卡绑定有多种称谓:Port Trunking, Channel Bonding, Link Aggregation, NIC teaming等等,其实说的是一回事。就是将两个或者更多的物理网卡绑定成一个虚拟网卡。通过绑定可以达到链路冗余、带宽倍增、负载均衡等目的。是生产场景中提高性能和可靠性的一种常用技术。

Linux内置了网卡绑定的驱动程序,可以将多个物理网卡分别捆绑成多个不同的逻辑网卡(例如把eth0、eth1捆绑成bond0,把eth2、eth3捆绑成bond1)。对于每一个bond接口来说,可以分别定义不同的绑定模式和链路监视选项。

对应于不同的负载均衡和容错特性需求,Linux网卡bond的模式共有bond0-bond6共7种。

表示负载分担round-robin,并且是轮询的方式,比如第一个包走eth0,第二个包走eth1,直到数据包发送完毕。

表示主备模式,即同一时间时只有1块网卡在工作。

表示使用MAC地址的XOR Hash负载分担,网络上特定的通信双方会始终经由某一个网卡的链路通信,和交换机的聚合强制不协商方式配合。(需要xmit_hash_policy [1] ,需要交换机配置port channel)

表示所有包从所有绑定的网络接口发出,不考虑均衡流量的分担,只有冗余机制,但过于浪费资源。此模式适用于金融行业,因为他们需要高可靠性的网络,不允许出现任何问题。需要和交换机的聚合强制不协商方式配合。

表示支持802.3ad协议,和交换机的聚合LACP方式配合(需要xmit_hash_policy).标准要求所有设备在聚合 *** 作时,要在同样的速率和双工模式。

是根据每个slave的负载情况选择slave进行发送,接收时使用当前轮到的slave。该模式要求slave接口的网络设备驱动有某种ethtool支持;而且ARP监控不可用。

在5的tlb基础上增加了rlb(接收负载均衡receiveload balance).不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的.

模式1、模式5和模式6不需要交换机端的设置,网卡能自动聚合。模式4需要支持802.3ad。模式0,模式2和模式3理论上需要静态聚合方式。 (据说实测中模式0可以通过mac地址欺骗的方式在交换机不设置的情况下不太均衡地进行接收。)

创建ifcfg-bond0文件,配置IP地址、子网掩码、网关等参数。

修改eth0、eth1、eth2的配置文件,注释或删除IP地址、掩码、网关和MAC地址的配置,添加关于MASTER和SLAVE的设置

根据实际需求,选择合适的bonding模式,为bond0设置bonding kernel module。

在 /etc/modprobe.conf 中添加以下内容

确认模块是否加载成功

重启网络(或重启主机):

查看bond0的状态:

另外还可以使用 ifconfig -a | grep HWaddr 查看bond0接口是否处于活动状态,以及各网卡MAC地址情况。

从上面的确认信息中,我们可以看到3个重要信息:

1.现在的bonding模式是active-backup

2.现在Active状态的网口是eth2

3.bond0,eth0、eth1、的物理地址和处于active状态下的eth2的物理地址相同,这样是为了避免上位交换机发生混乱。

可以ping一个远程地址,然后断开Active状态的eth2口网线,验证主备模式是否能正常切换,业务是否受到影响。

将网口添加到bond中:ifenslave bond eth0 eth1【bond要先up】

将bond中删除网口:ifenslave -d bond eth0

bond中网口主备倒换:ifenslave -c bond eth1

前面只是3个网口绑定成一个bond1的情况,如果我们要设置多个bond口,比如物理网口eth0和eth1组成bond0,eth2和eth3组成bond1应该如何设置呢?

网口设置文件的设置方法和上面第1步讲的方法相同,只是/etc/modprobe.d/bonding.conf的设定就不能像下面这样简单的叠加了:

正确的设置方法有2种:

第一种: 你可以看到,这种方式的话,多个bond口的模式就只能设成相同的了:

第二种: 这种方式,不同的bond口的mode可以设成不一样:

按照上面这2种设置方法,现在如果是要设置3个,4个,甚至更多的bond口,可是可以的。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/yw/8743309.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-20
下一篇2023-04-20

发表评论

登录后才能评论

评论列表(0条)

    保存