vmware7.0集群最多11台主机

vmware7.0集群最多11台主机,第1张

我们现在已经基本掌握了Vmware ESXi 7.0镜像的定制方法(如何私人定制VMWare ESXi 6.7和7.0的安装镜像?)和部署方法(VMWare ESXi 7.0的磁盘空间莫名少了120 GB?看这里!),掌握了vCenter 7.0的部署方法(VMware vCenter Server 7.0快速部署 *** 作指南),并且测试了虚拟机的热迁移 *** 作(vCenter 7.0的热迁移配置 *** 作指南)。

我们前面在部署ESXi 7.0时,发现系统中多了一块120 GB的VMFS-L(VMFS Local)磁盘空间,是针对并发群集 *** 作进行了特定优化的VMFS文件系统。我们也测试了调整VMFS-L分区的两种主要方法,分别是通过ESXi 6.x版本进行升级,以及通过手工设定分区大小来实现。

我们在vCenter中纳管了主机之后,集群状态为空,HA状态为不可用。

这就说明要使用集群功能,就要单独进行配置,那我们今天就来尝试配置一下vCenter的集群功能。

创建集群

点击数据中心“ *** 作”选项中的“新建集群”。

在基础配置页面,我们把vSphere DRS和vSphere HA这两个功能开启,暂时不开启vSAN功能。

下面的“使用单个映像管理集群中的所有主机”就不开了,这个功能主要用于对集群中的所有ESXi主机进行版本同步,和IRF一样,从而消除ESXi主机之间差异。我们的主机版本都是一致的,就不配置此功能了。

检查要创建的集群的详细信息,点击“完成”。

创建集群完成之后,我们就会自动跳转到集群配置的“快速入门”页面,在此页面,我们可以按照提示快速配置集群。

第一步是“集群基础知识”,主要用于修改集群的名称和3个服务的启用状态,和我们前面的创建 *** 作基本一致。

添加主机

第二步是“添加主机”,可以将新主机和现有主机添加到集群中。点击页面的“添加”按钮,进入添加主机页面。

我们添加一台新主机192.168.1.34,按照要求依次填写主机的IP地址、用户名和密码信息;如果要添加多台,点击下面的“添加主机”按钮即可。

然后我们再从现有的2台主机中选择192.168.1.36这台,也添加到集群中。然后点击“下一页”。

因为192.168.1.34是新添加的主机,如果出现证书的安全警示,直接“确定”即可。

查看要添加的主机的摘要信息。

最后有一个提示,在移至集群之前,主机将进入维护模式。对于已打开电源和已挂起的虚拟机,可能需要手工 *** 作关闭电源或迁移虚拟机。确认没有问题后,点击“完成”。

等待几分钟之后,可以看到2台ESXi主机的添加状态。

从数据中心视图中,可以看到两台主机已经被成功添加到集群中,并且处于“维护模式”。

配置集群

接下来进入第3步“配置集群”,点击页面中的“配置”按钮。

首先配置“Distributed Switch/分布式交换机”,需要配置ESXi主机的一台物理适配器连接到vMotion网络。

然后配置vMotion流量所使用的的IP地址和VLAN信息,可以使用默认配置,也可以按需调整。

在自定义集群设置的高级选项中,我只是把vSphere HA下面的“虚拟机监控”选项开启了,其他保持默认配置。

最后检查集群的所有配置信息,确认无误后点击“完成”。

从“近期任务”中我们大概可以看到集群的配置过程,包括网络配置(配置分布式交换机、添加分布式端口组、更新ESXi主机网络配置)、虚拟机配置(部署vCLS的OVF模板、配置vCLS虚拟机)和ESXi主机的集群选举等等。

最后我们可以看到主机配置成功的状态显示。

再次查看主机状态,现在已经看到主机属于新建的“集群1”。

但是状态这里有个警告,我们查看一下告警详情。

发现告警信息为“该主机的 vSphere HA 检测信号数据存储数目为 0,少于要求数目: 2”。产生的原因是vCenter配置vSphere HA时,DataStore HeartBeat(数据存储心跳检测)功能要求集群下的所有ESXi主机之间至少有两个共享数据存储才能正常运行数据存储检测信号。

解决方案一般有两种,第一种方案是关闭数据存储检测信号,但是这种方式治标不治本,我们就不介绍了。第二种方案就是真正去配置共享存储,这也是我们前面介绍NFS配置方法的原因(Windows Server2012 R2搭建NFS服务器、CentOS 7搭建NFS服务器)。

我们先添加一个,发现告警信息有变化。

说明问题原因和解决方案相匹配,然后我们意外发现Windows的共享好像不是很好使,新增之后竟然没有数量变化,我就只好又新建了一个Linux的NFS共享。再次配置连接Linux的NFS共享之后,告警就消失了。

不过过了一会,Windows的NFS共享也生效了,也不知道为什么,很尴尬。

最后再看一下集群的状态。

主机状态正常,HA状态正常,完美!

在建立群集的时候一定要注意,群集配置完之前,所开启的节点数不能超过一个。否则就有可能将共享磁盘破坏掉。

我也是前些天才学习的配置集群,这个指南很详细,你可以按照它再重新配置一次。《VMware Workstation 6.0 中 Cluster 配置指南》

没有的话给我发邮件。

bjlinus@163.com

共享磁盘,包括仲裁和数据磁盘的建立与添加普通磁盘不同。在虚拟机实验环境中需要修改配置文件和某些磁盘属性,鼻尖简单的方法是:

请下载plainmaker.exe,(www.vmware.cn有下载)创建仲裁盘:plainmaker qdisk.pln 200

,创建共享盘:plainmaker sharedisk.pln 2000

打开cluster1的machine settings点击add,添加hard disk,

use an exiting virtual disk,选择pln格式的文件,找到刚才创建的仲裁盘,advanced选择scsi1:0

,再次加入共享盘,advanced为scsi1:1。

进入cluster1虚拟磁盘存放目录,用记事本打开文件后缀为“.vmx”

的文件,该文件是虚拟机的配置文件,在最下面最下面添加一行:

disk.locking = "FALSE"

(一定要在英文输入法模式下输入,中文模式的等号和双引号是无效的),

同样在cluster2的配置文件中也添加该参数。这个参数的作用是打开磁盘共享模式

启动cluster1系统会发现新的SCSI适配器,可以到这个网址下载

http://www.vmware.com/download/downloadscsi.html,需要将下载的文件载入虚拟软驱,手动强行从A盘安装scsi动。

在cluster1系统的磁盘管理中可以看见两个未初始化的磁盘,将它们初始化,注意不要转化为动态卷,建立主分区,将磁盘文件系统格式化为ntfs格式,将盘符Q和Z分别赋给0.2G的Qdisk和2G

的sharedisk,同时磁盘的卷名也改成“Qdisk”和“sharedisk”

启动cluster2,同上面一样也安装好scsi适配器驱动,在磁盘管理中赋予这两个磁盘和cluster1

中相同的盘符和卷名。

好,现在为止,群集的外部条件都搭建好了。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/bake/11490096.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-16
下一篇2023-05-16

发表评论

登录后才能评论

评论列表(0条)

    保存