
按照上图配置,在virtualbox上创建虚拟机,并把网卡连接到上面实现创建好的host-only适配器上。我直接演示一下我的设置吧,见下图,注意控制芯片请选择PCnet-FAST III类型,混杂模式全部允许,4个网卡都启用并如此设置,界面名称按照你自己的规划选择不同的host-only适配器吧。
安装 *** 作系统
有了前面的准备,现在可以安装 *** 作系统了,先使用MirantisOpenStack-70_0iso将fuel server安装完成,这个过程比较久,安装完成后就可以在浏览器上访问102002。另外我采用的是离线安装包的办法,将离线安装包中的ubuntu系统镜像放到fuel server的nailgun服务目录下即可使用。
安装完成fuel-server后,就可以考虑去安装controller node与compute node了,请把这两个虚拟机设置为网络引导,引导完成后,fuel-server就能识别到这两个节点,在fuel UI上稍作配置,我们就可以部署openstack环境了。
安装openstack环境
Fuel安装完成后,在UI上先创建一个openstack环境,选择qemu计算、网络选择neutron vlan,其他默认就好。在你熟悉了整个过程后,可以再定制化安装你感兴趣的组件及插件。
在fuel UI上,我们可以发现引导起来的节点,把他们加入之前创建的环境中,对他们进行一下网卡及网络设置,网卡设置可以批量配置。把所有节点选中,点击Interface Configuration,如下图,是我本机上的设置
参考Ceph官方安装文档
Openstack环境中,数据存储可分为临时性存储与永久性存储。
临时性存储:主要由本地文件系统提供,并主要用于nova虚拟机的本地系统与临时数据盘,以及存储glance上传的系统镜像;
永久性存储:主要由cinder提供的块存储与swift提供的对象存储构成,以cinder提供的块存储应用最为广泛,块存储通常以云盘的形式挂载到虚拟机中使用。
Openstack中需要进行数据存储的三大项目主要是nova项目(虚拟机镜像文件),glance项目(共用模版镜像)与cinder项目(块存储)。
下图为cinder,glance与nova访问ceph集群的逻辑图:
ceph与openstack集成主要用到ceph的rbd服务,ceph底层为rados存储集群,ceph通过librados库实现对底层rados的访问;
openstack各项目客户端调用librbd,再由librbd调用librados访问底层rados;
实际使用中,nova需要使用libvirtdriver驱动以通过libvirt与qemu调用librbd;cinder与glance可直接调用librbd;
写入ceph集群的数据被条带切分成多个object,object通过hash函数映射到pg(构成pg容器池pool),然后pg通过几圈crush算法近似均匀地映射到物理存储设备osd(osd是基于文件系统的物理存储设备,如xfs,ext4等)。
CEPH PG数量设置与详细介绍
在创建池之前要设置一下每个OSD的最大PG 数量
PG PGP官方计算公式计算器
参数解释:
依据参数使用公式计算新的 PG 的数目:
PG 总数= ((OSD总数100)/最大副本数)/池数
3x100/3/3=3333 ;舍入到2的N次幕为32
openstack集群作为ceph的客户端;下面需要再openstack集群上进行ceph客户端的环境配置
在openstack所有控制和计算节点安装ceph Octopus源码包,centos8有默认安装,但是版本一定要跟连接的ceph版本一致
glance-api 服务运行在3个控制节点, 因此三台控制节点都必须安装
cinder-volume 与 nova-compute 服务运行在3个计算(存储)节点; 因此三台计算节点都必须安装
将配置文件和密钥复制到openstack集群各节点
配置文件就是生成的cephconf;而密钥是 cephclientadminkeyring ,当使用ceph客户端连接至ceph集群时需要使用的密默认密钥,这里我们所有节点都要复制,命令如下
※Glance 作为openstack中镜像服务,支持多种适配器,支持将镜像存放到本地文件系统,>
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)