ScaleIO、VSAN、MFS、Ceph这几种存储方案的区别是什么?

ScaleIO、VSAN、MFS、Ceph这几种存储方案的区别是什么?,第1张

ScaleIO:使用d性聚合软件产品来革新数据存储,该软件产品利用本地磁盘来创建服务器存储区域网络 (SAN)。纯软件方式的基于服务器的存储区域网络 (SAN),将存储和计算资源聚合到一起,形成单层的企业级存储产品。 ScaleIO 存储d性灵活,可以提供可线性扩展的性能。 其横向扩展服务器 SAN 体系结构可以从几个服务器扩展至数千服务器。
基本适用于全平台。>一、什么是超融合?有什么优势?

说到这个就不得不先提及超融合替代的产品:传统IT架构

通过国外的Nutanix、VMware(vSAN),中国的SmartX等超融合厂商的案例描述中看到,他们所替代的产品大量的是老牌存储厂商EMC、HDS等公司的存储产品。

所以,用户采购超融合并不必须替换原有的服务器品牌(比如Dell)或者虚拟化品牌(比如VMware),只有存储(比如EMC)是一定需要替换的。

所以最重大的区别是存储架构不同,超融合使用的是分布式存储,它可以很好地基于X86服务器构建一个易扩展、高可靠的存储资源池,这是超融合的基础,也是核心技术点。

传统IT架构与超融合架构的区别与对比

具体而言有以下几方面的区别:

物理融合及管理融合: 超融合架构把服务器、网络及存储进行了融合,并且搭载在统一管理平台上进行维护;而传统架构则是全部分离的。

存储架构: 超融合采用分布式存储,传统架构使用集中式存储。

网络: 超融合使用万兆以太网,而传统架构多使用光纤交换机。

可靠性方面: 可以看出可靠性方面,超融合架构的优势非常大,但其实这里的优势都是分布式存储本身应该具备的。

性能方面: 超融合在性能方面的架构优势非常明显,当然代价就是消耗计算资源,所以计算资源的消耗是检验超融合专业性的一个重要因素。

扩展性方面: 超融合的架构是扩展能力强,扩容简单快速,系统复杂度不会随扩容增加而增加。

部署运维方面: 相对传统架构,超融合布局,维护简单,能够在一定程度上智能运维。

二、超融合一体机有什么好处?

超融合一体机是指厂商根据客户的需求,和自身的产品策略,为用户提供的开箱即用,一体机化的交付方式,一体机包含了软件和 厂商选定并适配的 x86 服务器。

可见开箱即用,一体化交付是其最大优势。在简化部署、维护,以及可用性,可靠性等方面优势更明显。

具体如下:

1) 简化了部署,加快了业务上线时间

以前企业在部署自己的IT系统时,往往需要采购不同的设备,安装调试过程比较长,甚至会影响业务的上线时间。

有了超融合一体机,企业只需要购买一台这样的产品即可,安装和调试过程非常方便,大大简化了部署难度,加快了业务的上线时间。

2) 降低了运维难度和成本

以前公司有多少种不同的硬件设备,就需要多少个不同专业的技术人员,采用超融合一体机后,系统管理难度降低,一个技术人员就可以轻松搞定,降低了运维的难度和成本。

3) 提高了设备的可靠性和可用性

超融合一体机在设备故障方面要低很多,即使出现问题,解决起来也相对比较简单和快速,这就很好的提高了它的可靠性和可用性。

4) 节省了开支

相对于多台设备组成的IT系统的采购价格而言,超融合一体机的售价会低很多。

三、联想超融合一体机怎么样?

2019 Gartner 中国超融合厂商竞争格局报告,列举了包括SMARTX在内的近十家国内超融合厂商,算是一个比较不错的参考。

就来介绍下如何在一台ESXi主机上配置3个ESXi并组建一个VSAN集群。昨天,我介绍了如何在一台ESXi主机上安装ESXi的客户机(当然这些ESXi本身也是主机哦,还可以在其上部署虚拟机,虽然性能会比较差)。因此,首先就是根据上面所说的硬件条件创建3个虚拟机用来安装ESXi55u1。我的配置是每一台主机都包括:
4个CPU(最少2个)
8GB内存
3个硬盘,一个4GB(用来装系统)、一个40GB(模拟成SSD)、一个400GB(提供给vsan存放数据)
2个网络适配器,一个在子网19216810x用于管理和虚拟机网络,一个在子网19216820x,用于VSAN VMkernel
虚拟机版本10
注意,为了让ESXi客户机有2个网络适配器,在ESXi主机(本例中起名为esxi01)上的网络配置至少要配置2个不同的端口组,我将这2个端口组分别配置在了2个不同的vSwitch上:
vSwitch0,默认vSwitch,配置有管理网络(VMKernel)和VM Network 10端口组
vSwitch2,新增的vSwitch,配置有VM Network 20端口组
此外,我还因为有iSCSI存储,因此配置了2个iSCSI的VMKernel分别在vSwitch1和vSwitch2上。
vSwitch0和vSwitch2的配置截图如下:
这里有一点要说明的是,如果仅为了vsan网络的通信,vSwitch2可以没有上联的物理适配器,我的截图里面配置了上联的物理适配器是因为我还有一个iSCSI2的VMkernel需要使用。
安装3台虚拟机的过程就不赘述了,只要你按照我昨天的文章来 *** 作,就可以顺利完成。安装完之后,照例是配置静态IP地址、FQDN主机名、禁用IPv6、DNS并开启SSH和ESXi SHELL以备之后在控制台输入命令行使用。
需要强调一次的是,在你的实验网络中,需要配置好一台域控制器,它同时也是DNS服务器,并事先在DNS服务器里面添加好静态的ESXi主机的DNS项。在我的实验环境中,它们是:
esxi55u01homelab – 1921681031
esxi55u02homelab – 1921681032
esxi55u03homelab – 1921681033
请在**DCUI界面(安装完ESXi主机的初次配置界面)里面测试一下网络,如果主机域名也能顺利解析,那就说明网络配置都完备了。DNS对于正确配置VMware集群来说非常重要。
接下去就是用vSphere Web客户端再次连接到vCenter(我的是vCSA),把这几台新安装的ESXi主机添加进来,添加的时候要用FQDN,不能是IP地址。
现在让我们来看一看这些ESXi主机的磁盘情况(左边窗格点选主机,在右边窗格分别选择管理,存储器和存储设备,如图所示),可以看见置备的3个磁盘都是非SSD。下面要克服的问题是怎样欺骗ESXi,让它以为其中一块40GB的磁盘是SSD,这样才能满足VSAN配置的必要前提条件。
让我们进入到这台vSphere ESXi主机的管理控制台界面,在命令行里面输入下面的2条命令,就可以完成:
# esxcli storage nmp satp rule add --satp VMW_SATP_LOCAL --device mpxvmhba1:C0:T1:L0 --option=enable_ssd
# esxcli storage core claiming reclaim -d mpxvmhba1:C0:T1:L0
注意,这里的设备ID要填写你所想要变成SSD的那个磁盘,设备ID就是长的像mpxvmhba1C0:T1:L0的那个。
输入命令后,如果没有填错,是不返回结果的。回到vSphere Web客户端,刷新一下,你就会发现那个40GB的磁盘的类型变成SSD了。
关于VSAN的配置,LeoXiao同学写的很不错,就不多罗嗦了。你可以参考他的文章。
我借个图说明下顺序:
多说一句,为了测试NIOC功能,而这个功能只有在分布式交换机上才有,所以,建议VSAN集群配置的时候先配置好分布式交换机,并且把VSAN专用的VMkernel建在分布式交换机上。
最后,给大家看一下,要搭建一个VSAN集群的测试环境,在一台主机上至少要配置并开启5台虚拟机——包括1台域控制器,1台vCenter和3台ESXi主机(每台都配了8GB内存哦)。
虽然还是有一些网络传输上不稳定的问题,不过vsan数据存储好歹是建起来了。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/zz/10670185.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-10
下一篇2023-05-10

发表评论

登录后才能评论

评论列表(0条)

    保存