
优点有什么呢?
1)简单、容易上手和掌握
2)NFS文件系统内数据可见的
3)部署快速,维护简单方便且可控满足需求就是最好的
4)可靠,数据性高、经久耐用
5)服务稳定
局限又是什么?
1)存在单点故障,如果NFS Server宕机了,所有客户端就不能访问共享目录了
2)在大数据高并发的情况下,NFS效率、性能是有限的
3)客户端认证是基于IP和主机名的,权限要根据ID识别,安全性一般(用于内网则问题不大)
4)NFS数据是明文的,NFS本身不对局完整性做验证
5)多台客户机器挂载一个NFS服务器时,连接管理维护麻烦。NFS服务端出问题后,所有NFS客户端都处于挂掉状态
以上便是“NFS服务有什么优缺点?”的相关介绍。
nfs服务器建立
本文介绍Linux环境下nfs服务的搭建过程。
nfs服务的作用是让其他机器可以通过网络把将本地的nfs目录挂载,然后通过访问挂载目录访问本地机器。在嵌入式开发中经常会将运行的开发板上的整个文件系统,做为本地的一个主目录,然后开发板启动的时候通过nfs服务,将本地的这个目录挂载上去,作为根文件系统。
这里分别介绍在Ubuntu和CenterOS上面nfs服务的配置过程。
编辑/etc/exports,在其中增加要共享的目录
如
其中 /home/quietheart/nfs,10.1.14.0/24代表共享给哪个子网,rw是可读写权限
然后
建立好了nfs之后,如果板子里面的内核支持网络和nfs,需要板子和你的机器各有一个网线和网口,两者在同一个网段,配置好了就能互访。也可以把机器和板子用一根网线链接(板子有独立的网口),这样不需要网关,就能使板子挂载机器的nfs系统了,但是机器也不能够上网了。
添加类似如下一行:
在配置NFS之前先查看“rpm -q nfs-utils portmap“两个软件包是否安装,默认都是安装的。
这里,'<your nfs directory>'是你本地的nfs目录,可以随意设置。具体含义参见"info exports".
这一步有时候可以不用做。
具体在:"系统"->"管理"->"安全级别和防火墙"
至此nfs服务搭建完毕.
这里说一下测试nfs是否好用的方法:
在其它机器上运行:
如果成功则完毕。
无。
通过以上可知,在Linux上面配置nfs服务的过程大致一样。
我们现在已经基本掌握了Vmware ESXi 7.0镜像的定制方法(如何私人定制VMWare ESXi 6.7和7.0的安装镜像?)和部署方法(VMWare ESXi 7.0的磁盘空间莫名少了120 GB?看这里!),掌握了vCenter 7.0的部署方法(VMware vCenter Server 7.0快速部署 *** 作指南),并且测试了虚拟机的热迁移 *** 作(vCenter 7.0的热迁移配置 *** 作指南)。我们前面在部署ESXi 7.0时,发现系统中多了一块120 GB的VMFS-L(VMFS Local)磁盘空间,是针对并发群集 *** 作进行了特定优化的VMFS文件系统。我们也测试了调整VMFS-L分区的两种主要方法,分别是通过ESXi 6.x版本进行升级,以及通过手工设定分区大小来实现。
我们在vCenter中纳管了主机之后,集群状态为空,HA状态为不可用。
这就说明要使用集群功能,就要单独进行配置,那我们今天就来尝试配置一下vCenter的集群功能。
创建集群
点击数据中心“ *** 作”选项中的“新建集群”。
在基础配置页面,我们把vSphere DRS和vSphere HA这两个功能开启,暂时不开启vSAN功能。
下面的“使用单个映像管理集群中的所有主机”就不开了,这个功能主要用于对集群中的所有ESXi主机进行版本同步,和IRF一样,从而消除ESXi主机之间差异。我们的主机版本都是一致的,就不配置此功能了。
检查要创建的集群的详细信息,点击“完成”。
创建集群完成之后,我们就会自动跳转到集群配置的“快速入门”页面,在此页面,我们可以按照提示快速配置集群。
第一步是“集群基础知识”,主要用于修改集群的名称和3个服务的启用状态,和我们前面的创建 *** 作基本一致。
添加主机
第二步是“添加主机”,可以将新主机和现有主机添加到集群中。点击页面的“添加”按钮,进入添加主机页面。
我们添加一台新主机192.168.1.34,按照要求依次填写主机的IP地址、用户名和密码信息;如果要添加多台,点击下面的“添加主机”按钮即可。
然后我们再从现有的2台主机中选择192.168.1.36这台,也添加到集群中。然后点击“下一页”。
因为192.168.1.34是新添加的主机,如果出现证书的安全警示,直接“确定”即可。
查看要添加的主机的摘要信息。
最后有一个提示,在移至集群之前,主机将进入维护模式。对于已打开电源和已挂起的虚拟机,可能需要手工 *** 作关闭电源或迁移虚拟机。确认没有问题后,点击“完成”。
等待几分钟之后,可以看到2台ESXi主机的添加状态。
从数据中心视图中,可以看到两台主机已经被成功添加到集群中,并且处于“维护模式”。
配置集群
接下来进入第3步“配置集群”,点击页面中的“配置”按钮。
首先配置“Distributed Switch/分布式交换机”,需要配置ESXi主机的一台物理适配器连接到vMotion网络。
然后配置vMotion流量所使用的的IP地址和VLAN信息,可以使用默认配置,也可以按需调整。
在自定义集群设置的高级选项中,我只是把vSphere HA下面的“虚拟机监控”选项开启了,其他保持默认配置。
最后检查集群的所有配置信息,确认无误后点击“完成”。
从“近期任务”中我们大概可以看到集群的配置过程,包括网络配置(配置分布式交换机、添加分布式端口组、更新ESXi主机网络配置)、虚拟机配置(部署vCLS的OVF模板、配置vCLS虚拟机)和ESXi主机的集群选举等等。
最后我们可以看到主机配置成功的状态显示。
再次查看主机状态,现在已经看到主机属于新建的“集群1”。
但是状态这里有个警告,我们查看一下告警详情。
发现告警信息为“该主机的 vSphere HA 检测信号数据存储数目为 0,少于要求数目: 2”。产生的原因是vCenter配置vSphere HA时,DataStore HeartBeat(数据存储心跳检测)功能要求集群下的所有ESXi主机之间至少有两个共享数据存储才能正常运行数据存储检测信号。
解决方案一般有两种,第一种方案是关闭数据存储检测信号,但是这种方式治标不治本,我们就不介绍了。第二种方案就是真正去配置共享存储,这也是我们前面介绍NFS配置方法的原因(Windows Server2012 R2搭建NFS服务器、CentOS 7搭建NFS服务器)。
我们先添加一个,发现告警信息有变化。
说明问题原因和解决方案相匹配,然后我们意外发现Windows的共享好像不是很好使,新增之后竟然没有数量变化,我就只好又新建了一个Linux的NFS共享。再次配置连接Linux的NFS共享之后,告警就消失了。
不过过了一会,Windows的NFS共享也生效了,也不知道为什么,很尴尬。
最后再看一下集群的状态。
主机状态正常,HA状态正常,完美!
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)