linux虚拟机设置物理机主机使用的计算机的网卡绑定地址

linux虚拟机设置物理机主机使用的计算机的网卡绑定地址,第1张

1.基本 *** 作

永久修改网卡IP

vi /etc/sysconfig/network-scripts/ifcfg-ens33

TYPE=Ethernet #设置网卡类型,“Ethernet”表示以太网

DEVICE=ens33 #设置网卡的名称

ONBOOT=yes #设置网卡是否在 Linux *** 作系统启动时激活

BOOTPROTO=static #设置网卡的配置方式,“static”表示使用静态IP地址,“dhcp”时表示动态获取地址

IPADDR=192.168.80.3 #设置网卡的 IP 地址

NETMASK=255.255.255.0 #设置网卡的子网掩码

GATEWAY=192.168.80.2 #设置网卡的默认网关地址

DNS1=192.168.80.2 #设置DNS服务器的 IP 地址

2. *** 作步骤

1.打开终端

2.输入:ifconfig 在ens33中查看网卡地址:

3.确认虚拟机网段是多少,打开网络编辑器

4.点击更改设

5.查看本地电脑中有无VM net网卡

6.选择NAT模式,查看虚拟机网段

在这里插入图片描述7.点击DHCP设置,起始地址改为:192.168.133.2

结束地址改为:192.168.133.2548.nat设置

9.进入本机VM net8 中设置DHCP自动获取,192.168.133.1被占用,所以从192.168.133.2开始设置:

10.设置完后,按确定保存:

11. 更改网卡的配置文件,先ifconfig,查看网卡:

[root@localhost ~]# ifconfig

[root@localhost ~]# cd /etc/sysconfig/network-scripts/

[root@localhost network-s

12.配置完后,用命令重启网卡

发现工作中可能会用到Linux下网卡绑定相关的知识。找了些文章看,然后一通混剪,各家所长为我所用。

网卡bond,即网卡绑定,也称作网卡捆绑。网卡绑定有多种称谓:Port Trunking, Channel Bonding, Link Aggregation, NIC teaming等等,其实说的是一回事。就是将两个或者更多的物理网卡绑定成一个虚拟网卡。通过绑定可以达到链路冗余、带宽倍增、负载均衡等目的。是生产场景中提高性能和可靠性的一种常用技术。

Linux内置了网卡绑定的驱动程序,可以将多个物理网卡分别捆绑成多个不同的逻辑网卡(例如把eth0、eth1捆绑成bond0,把eth2、eth3捆绑成bond1)。对于每一个bond接口来说,可以分别定义不同的绑定模式和链路监视选项。

对应于不同的负载均衡和容错特性需求,Linux网卡bond的模式共有bond0-bond6共7种。

表示负载分担round-robin,并且是轮询的方式,比如第一个包走eth0,第二个包走eth1,直到数据包发送完毕。

表示主备模式,即同一时间时只有1块网卡在工作。

表示使用MAC地址的XOR Hash负载分担,网络上特定的通信双方会始终经由某一个网卡的链路通信,和交换机的聚合强制不协商方式配合。(需要xmit_hash_policy [1] ,需要交换机配置port channel)

表示所有包从所有绑定的网络接口发出,不考虑均衡流量的分担,只有冗余机制,但过于浪费资源。此模式适用于金融行业,因为他们需要高可靠性的网络,不允许出现任何问题。需要和交换机的聚合强制不协商方式配合。

表示支持802.3ad协议,和交换机的聚合LACP方式配合(需要xmit_hash_policy).标准要求所有设备在聚合 *** 作时,要在同样的速率和双工模式。

是根据每个slave的负载情况选择slave进行发送,接收时使用当前轮到的slave。该模式要求slave接口的网络设备驱动有某种ethtool支持;而且ARP监控不可用。

在5的tlb基础上增加了rlb(接收负载均衡receiveload balance).不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的.

模式1、模式5和模式6不需要交换机端的设置,网卡能自动聚合。模式4需要支持802.3ad。模式0,模式2和模式3理论上需要静态聚合方式。 (据说实测中模式0可以通过mac地址欺骗的方式在交换机不设置的情况下不太均衡地进行接收。)

创建ifcfg-bond0文件,配置IP地址、子网掩码、网关等参数。

修改eth0、eth1、eth2的配置文件,注释或删除IP地址、掩码、网关和MAC地址的配置,添加关于MASTER和SLAVE的设置

根据实际需求,选择合适的bonding模式,为bond0设置bonding kernel module。

在 /etc/modprobe.conf 中添加以下内容

确认模块是否加载成功

重启网络(或重启主机):

查看bond0的状态:

另外还可以使用 ifconfig -a | grep HWaddr 查看bond0接口是否处于活动状态,以及各网卡MAC地址情况。

从上面的确认信息中,我们可以看到3个重要信息:

1.现在的bonding模式是active-backup

2.现在Active状态的网口是eth2

3.bond0,eth0、eth1、的物理地址和处于active状态下的eth2的物理地址相同,这样是为了避免上位交换机发生混乱。

可以ping一个远程地址,然后断开Active状态的eth2口网线,验证主备模式是否能正常切换,业务是否受到影响。

将网口添加到bond中:ifenslave bond eth0 eth1【bond要先up】

将bond中删除网口:ifenslave -d bond eth0

bond中网口主备倒换:ifenslave -c bond eth1

前面只是3个网口绑定成一个bond1的情况,如果我们要设置多个bond口,比如物理网口eth0和eth1组成bond0,eth2和eth3组成bond1应该如何设置呢?

网口设置文件的设置方法和上面第1步讲的方法相同,只是/etc/modprobe.d/bonding.conf的设定就不能像下面这样简单的叠加了:

正确的设置方法有2种:

第一种: 你可以看到,这种方式的话,多个bond口的模式就只能设成相同的了:

第二种: 这种方式,不同的bond口的mode可以设成不一样:

按照上面这2种设置方法,现在如果是要设置3个,4个,甚至更多的bond口,可是可以的。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/yw/8970663.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-23
下一篇2023-04-23

发表评论

登录后才能评论

评论列表(0条)

    保存