
名称解释:
Disk Group:磁盘组,这里相当于是阵列,例如配置了一个RAID5,就是一个磁盘组
VD(Virtual Disk): 虚拟磁盘,虚拟磁盘可以不使用阵列的全部容量,也就是说一个磁盘组可以分为多个VD
PD(Physical Disk): 物理磁盘
HS:Hot Spare 热备
Mgmt:管理
一创建逻辑磁盘
1、按照屏幕下方的虚拟磁盘管理器提示,在VD Mgmt菜单(可以通过CTRL+P/CTRL+N切换菜单),按F2展开虚拟磁盘创建菜单
2、在虚拟磁盘创建窗口,按回车键选择”Create New VD”创建新虚拟磁盘
3、在RAID Level选项按回车,可以出现能够支持的RAID级别,RAID卡能够支持的级别有RAID0/1/5/10/50,根据具体配置的硬盘数量不同,这个位置可能出现的选项也会有所区别。
选择不同的级别,选项会有所差别。选择好需要配置的RAID级别(我们这里以RAID5为例),按回车确认。
4、确认RAID级别以后,按向下方向键,将光标移至Physical Disks列表中,上下移动至需要选择的硬盘位置,按空格键来选择(移除)列表中的硬盘,当选择的硬盘数量达到这个RAID级别所需的要求时,Basic Settings的VD Size中可以显示这个RAID的默认容量信息。有X标志为选中的硬盘。
选择完硬盘后按Tab键,可以将光标移至VD Size栏,VD Size可以手动设定大小,也就是说可以不用将所有的容量配置在一个虚拟磁盘中。如果这个虚拟磁盘没有使用我们所配置的RAID5阵列所有的容量,剩余的空间可以配置为另外的一个虚拟磁盘,但是配置下一个虚拟磁盘时必须返回VD Mgmt创建(可以参考第13步,会有详细说明)。VD Name根据需要设置,也可为空。
注:各RAID级别最少需要的硬盘数量,RAID0=1,RAID1=2,RAID5=3,RAID10=4,RAID50=6
5、修改高级设置,选择完VD Size后,可以按向下方向键,或者Tab键,将光标移至Advanced Settings处,按空格键开启(禁用)高级设置。如果开启后(红框处有X标志为开启),可以修改Stripe Element Size大小,以及阵列的Read Policy与Write Policy,Initialize处可以选择是否在阵列配置的同时进行初始化。
高级设置默认为关闭(不可修改),如果没有特殊要求,建议不要修改此处的设置。
6、上述的配置确认完成后,按Tab键,将光标移至OK处,按回车,会出现如下的提示,如果是一个全新的阵列,建议进行初始化 *** 作,如果配置阵列的目的是为了恢复之前的数据,则不要进行初始化。按回车确认即可继续。
7、配置完成后,会返回至VD Mgmt主界面,将光标移至图中Virtual Disk 0处,按回车。
8、可以看到刚才配置成功的虚拟磁盘信息,查看完成后按esc键可以返回主界面
9、在此界面,将光标移至图中Virtual Disk 0处,按F2键可以展开对此虚拟磁盘 *** 作的菜单。
注:左边有+标志的,将光标移至此处,按向右方向键,可以展开子菜单,按向左方向键,可以关闭子菜单
10、如下图红框所示,可以对刚才配置成功的虚拟磁盘(Virtual Disk 0)进行初始化(Initialization),一致性校验(Consistency Check),删除,查看属性等 *** 作。
11、如果我们要对此虚拟磁盘进行初始化,可以将光标移至Initialization处,回车后选择Start Init。此时会d出提示窗口,初始化将会清除所有数据,如果确认要进行初始化 *** 作,在OK处按回车即可继续。
注:初始化会清除硬盘、阵列中的所有信息,并且无法恢复
12、确认后可以看到初始化的进度,左边红框处为百分比表示,右边红框处表示目前所作的 *** 作。等待初始化进行为100%,虚拟磁盘的配置完成。
13、如果刚才配置虚拟磁盘的时候没有使用阵列的全部容量,剩余的容量可以在这里划分使用。将光标移至Space allocation处,按向右方向键展开此菜单
14、将光标移至 Free Space 处,按F2键,至第15步,或者直接按回车至第16步
15、在d出的Add New VD处按回车键。
16、再次进入配置虚拟磁盘的界面,此时左边红框处为刚才配置的虚拟磁盘已经选择的物理磁盘信息,右边红框处可以选择这次要划分的容量空间。同样,如果不全部划分,可以再次返回第13步,进行再一个虚拟磁盘的创建。
注:由于虚拟磁盘的建立是基于刚才所创建的阵列,所以RAID Level与刚才所创建的相同,无法更改。
17、每一次创建,都会在Virtual Disks中添加新的虚拟磁盘。这些虚拟磁盘都是在同一个磁盘组(也就是我们刚才所配置的RAID5)上划分的。
二配置热备(Hot spare)
配置Hot Spare有两种模式,一种是全局热备,也就是指这个热备硬盘可以做为这个通道上所有阵列的热备;另一种是独立热备,配置硬盘为某个指定的磁盘组中的所有虚拟磁盘做热备,也就是说这个磁盘组以外的其他阵列即使硬盘掉线,这个热备也不会去自动做rebuild
配置全局热备:
1、首先要已经有存在的磁盘组(阵列),我们这里举例为已经配置了两个阵列,阵列0是由0、1、2三块物理磁盘配置的RAID5,阵列1是由4、5两块物理磁盘配置的RAID1,如图:
2、按CTRL+N 切换至PD Mgmt界面,可以看到4号硬盘的状态是Ready。
3、将光标移至4号硬盘,按F2,在d出的菜单中,选择Make Global HS,配置全局的热备盘
4、确认后,4号硬盘的状态变为Hotspare
5、配置完成后,可以看到磁盘组0与磁盘组1的热备盘都是同一个。
6、移除热备,进入PD Mgmt菜单,将光标移至热备盘处,按F2,选择Remove Hot Spare,回车移除
配置独立热备:
1、在配置好的虚拟磁盘管理界面下,将光标移至需要配置独立热备的磁盘组上,按F2键,在出现的菜单中选择 Manage Ded HS
2、将光标移至需要配置为热备的硬盘上,按空格键,看到X标识,说明此硬盘被选择。将光标移至OK处回车,完成配置
3、可以看到磁盘组0已经有了热备盘,并且是Dedicated。而磁盘组1并没有热备盘。
4、移除热备,同第1步,将光标移至需要移除热备的磁盘组上,按F2键,在出现的菜单中选择 Manage Ded HS
5、将光标移至需要移除的热备硬盘上,按空格键,去掉X标识,说明此硬盘被移除。将光标移至OK处回车,完成热备移除。
三删除虚拟磁盘:
1、将光标移至要删除的虚拟磁盘处,按F2,选择Delete VD按回车继续
2、在d出的确认窗口,OK处按回车确认即可删除。
注:删除的同时会将此虚拟磁盘的数据全部删除。
3、删除磁盘组,将光标移至要删除的磁盘组处,按F2,选择Delete Disk Group按回车继续
4、在d出的确认窗口,OK处按回车确认,即可删除
注:删除的同时会将此磁盘组的数据全部删除。
RAID 1是将一个两块硬盘所构成RAID磁盘阵列,其容量仅等于一块硬盘的容量,因为另一块只是当作数据“镜像”。
RAID 0是将两块以上的硬盘合并成一块,数据连续地分割在每块盘上。并不是真正的RAID结构,没有数据冗余,没有数据校验的磁盘陈列。
RAID 1通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互 为备份的数据。原始数据繁忙时,可直接从镜像拷贝中读取数据,因此RAID 1可以提高读取性能。
RAID 0是代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个磁盘上存取,这样,系统有数据请求就可以被多个磁盘并行的执行,每个磁盘执行属于它自己的那部分数据请求。
扩展资料
RAID 1磁盘阵列显然是最可靠的一种阵列,因为它总是保持一份完整的数据备份。性能没有RAID 0磁盘阵列那样好,但其数据读取确实较单一硬盘来的快,因为数据会从两块硬盘中较快的一块中读出。
RAID 1磁盘阵列的写入速度通常较慢,因为数据得分别写入两块硬盘中并做比较。RAID 1磁盘阵列一般支持“热交换”,就是说阵列中硬盘的移除或替换可以在系统运行时进行,无须中断退出系统。
RAID 0在提高性能的同时,并没有提供数据保护功能,只要任何一块硬盘损坏就会丢失所有数据。因此RAID 0 不可应用于需要数据高可用性的关键领域。
参考资料来源:百度百科-RAID 0
参考资料来源:百度百科-RAID 1
在最初的RAID技术中,是将几块小容量廉价的磁盘组合成一个大的逻辑磁盘给大型机使用。那个时候还没有逻辑卷的概念。只是单纯的将磁盘按照传统RAID级别进行组合然后提供给上层主机使用。后来硬盘的容量不断增大,组建RAID的初衷不再是构建一个大容量的磁盘,而是希望利用RAID技术实现数据的可靠性和安全性以及提升存储性能,由于单个容量硬盘都已经较大了,数据硬盘组建的RAID容量更大,所以把RAID划分成一个一个的LUN(逻辑卷)映射给服务器使用。
随着硬盘技术的进一步发展,单块硬盘的容量已经达到数T,传统RAID技术在硬盘重构的过程中需要的时间越来越长,也增加了在重构过程中其它硬盘再坏掉对数据丢失造成的风险,为了解决这一问题,块虚拟化技术应运而生。RAID 20+ 是华为的块虚拟化技术,该技术将物理空间和数据空间分散分布成分散的块,可以充分发挥系统的读写能力,方便扩展,也方便了空间的按需分配,数据的热度排布,迁移。它是华为所有Smart软件特性的实现基础。同时,由于热备空间也是分散在多个盘上的,因此硬盘数据的重构写几乎可以同时进行,避免了写单个热备盘造成的性能瓶颈,大大减少了重构时间。
RAID20+软件逻辑对象
华为RAID20+采用底层硬盘管理和上层资源管理两层虚拟化管理模式,在系统内部,每个硬盘空间被划分成一个个小粒度的数据块,基于数据块来构建RAID组,使得数据均匀地分布到存储池的所有硬盘上,同时,以数据块为单元来进行资源管理,大大提高了资源管理的效率。
OceanStor存储系统支持不同类型(SSD、SAS、NL-SAS)的硬盘(SATA盘理论可用,只是其性能较低,企业级存储中已很少使用),这些硬盘组成一个个的硬盘域(Disk Domain)。在一个硬盘域中,同种类型的硬盘构成一个存储层,每个存储层内部再按一定的规则划分为Disk Group;
各存储层的硬盘被划分为固定大小的Chunk(CK),其中,SSD层和SAS层的CK的大小为64MB,NL-SAS层的CK大小为256M。
OceanStor 存储系统通过随机算法,将每一个存储层的Chunk(CK)按照用户设置的“RAID策略”来组成Chunk Group(CKG),用户可以为存储池(Storage Pool)中的每一个存储层分别设置“RAID策略”。
OceanStor存储系统会将Chunk Group(CKG)切分为更小的Extent。Extent作为数据迁移的最小粒度和构成Thick LUN的基本单位,在创建存储池(Storage Pool)时可以在“高级”选项中进行设置,默认4MB。对于Thin LUN(精简置备LUN)或文件系统,会在Extent上再进行更细粒度的划分(Grain,一般64KB),并以Grain为单位映射到Thin LUN、文件系统。
若干Extent组成了卷(Volume),卷(Volume)对外体现为主机访问的LUN(这里的LUN为Thick LUN)。在处理用户的读写请求以及进行数据迁移时,LUN向存储系统申请空间、释放空间、迁移数据都是以Extent为单位进行的。例如:用户在创建LUN时,可以指定容量从某一个存储层中获得,此时LUN由指定的某一个存储层上的Extent组成。在用户的业务开始运行后,存储系统会根据用户设定的迁移策略,对访问频繁的数据以及较少被访问的数据在存储层之间进行迁移(此功能需要购买SmartTier License)。此时,LUN上的数据就会以Extent为单位分布到存储池的各个存储层上。
RAID20+基本原理
总结,相比于传统的RAID,华为RAID 20+块虚拟化技术最大的区别就是将基本单位由单个磁盘调整为数据块,将数据块CK按照相应RAID级别(不同存储层可选择不同的RAID级别)组成CKG的方式。并且内部具备负载均衡技术,能够根据数据块的冷热程度动态迁移至不同的存储层中,大大提高了存储性能。其次,在重构方面,由于是以数据块的方式做RAID,同时热备磁盘也以热备块的方式存在,当磁盘发生故障时,可并行多个CKG一起进行重构,所以相比传统的RAID技术大大提高的重构的效率。但缺点就是磁盘都以数据块的方式管理,将大大提高管理开销,所以在硬盘较少的场景并不适合使用块虚拟化技术。现在RAID 20+技术在华为存储设备中运用广泛,也在越来越多的存储场景发挥更大的价值。
很多的服务器都会做raid。磁盘阵列就是由多块磁盘通过专用的阵列卡组合成一个拥有不同功能的磁盘组。现在很多大型服务器商的云主机一般上都在使用磁盘阵列功能,这能更好的保障数据的安全。
RAID由一种由多块硬盘构成的冗余阵列。虽然RAID包含多块硬盘,但是在 *** 作系统下是作为一个独立的大型存储设备出现。利用RAID技术于存储系统的用处主要有以下三种:
1、通过把多个磁盘组织在一起作为一个逻辑卷提供磁盘跨越功能;
2、通过把数据分成多个数据块(Block)并行写入/读出多个磁盘以提高访问磁盘的速度;
3、通过镜像或校验 *** 作提供容错能力。
最初开发RAID的主要目的是节省成本,当时几块小容量硬盘的价格总和要低于大容量的硬盘。目前来看RAID在节省成本方面的作用并不明显,但是RAID可以充分发挥出多块硬盘的优势。
实现远远超出任何一块单独硬盘的速度和吞吐量。除了性能上的提高之外,RAID还可以提供良好的容错能力,在任何一块硬盘出现问题的情况下都可以继续工作,不会受到损坏硬盘的影响。
RAID技术分为几种不同的等级,分别可以提供不同的速度,安全性和性价比。根据实际情况选择适当的RAID级别可以满足用户对存储系统可用性、性能和容量的要求。
扩展资料:
常用的RAID级别有以下几种:NRAID,JBOD,RAID0,RAID1,RAID0+1,RAID3,RAID5等。目前经常使用的是RAID5和RAID(0+1)。
RAID0偏效率,磁盘利用率100%。
RAID1偏安全,磁盘利用率只有50%。
raid0 就是把多个(最少2个)硬盘合并成1个逻辑盘使用,数据读写时对各硬盘同时 *** 作,不同硬盘写入不同数据,速度快。
raid1就是同时对2个硬盘读写(同样的数据)。强调数据的安全性。比较浪费。
raid5也是把多个(最少3个)硬盘合并成1个逻辑盘使用,数据读写时会建立奇偶校验信息,并且奇偶校验信息和相对应的数据分别存储于不同的磁盘上。当RAID5的一个磁盘数据发生损坏后,利用剩下的数据和相应的奇偶校验信息去恢复被损坏的数据。相当于raid0和raid1的综合。
raid10就是raid1+raid0,比较适合速度要求高,又要完全容错,当然¥也很多的时候。最少需要4块硬盘(注意:做raid10时要先作RAID1,再把数个RAID1做成RAID0,这样比先做raid0,再做raid1有更高的可靠性)
参考资料来源:百度百科-RAID
飞腾服务器raid卡配置步骤如下:
一、服务器加电开机
1如图-1所示,按“Ctrl+R”,进入RAID配置界面。
图-1
二、配置RAID-5
1如图-2所示,按键盘“↑↓”键选择“NoConfiguration Present”。
图-2
2如图-3所示,按“F2”键-->“Create New VD”。
图-3
3如图-4所示,按“回车”键-->“raid-5”。
图-4
4如图-5所示,按“Tab”键(切换位置)-->按“空格键”选中磁盘。
图-5
5如图-6所示,按“Tab”键(切换位置)-->输入虚拟磁盘大小与名字。
图-6
6如图-7所示,按“Tab”键(切换位置)-->“OK”完成。
图-7
三、初始化虚拟磁盘
1如图-8所示,按键盘“↑↓”键-->“ID:0 raid-5”-->按“F2”键-->“Initialization” -->“Fast Init”。
图-8
2 如图-9所示,初始化选择“YES”。
图-9
3如图-10所示,初始化完成-->“OK”。
图-10
Ø 结果验证
1如图-11所示,查看状态,为“optimal”, *** 作为“None”。
图-11
对于超云服务器进 RAID 的问题,这里提供一些可能的思路:1 确认硬件支持:首先需要确认超云服务器上是否支持 RAID。如果服务器没有 RAID 控制器或者不支持硬件 RAID,那么可以考虑使用软件 RAID,如 Linux 中常用的 mdadm 工具。
2 选择 RAID 级别:根据实际需求选择合适的 RAID 级别。通常,RAID0 可以提升读写速度但没有冗余,RAID1 可以提供数据冗余但是容量开销较大,而 RAID5 或 RAID6 可以在保证数据冗余的同时兼顾存储效率。当然,不同的业务场景需要根据需求选择合适的 RAID 策略。
3 数据备份:无论使用何种 RAID,数据备份都非常重要。RAID 可以提供数据冗余,但并不是绝对可靠的,因此需要定期进行数据备份,并存放在不同的位置,确保数据安全。
4 *** 作规范:在进行 RAID 管理时,需要遵循安装 *** 作规范,如备份数据、选择合适的 RAID 控制器和硬盘、正确配置 RAID 级别等。
总之,超云服务器进 RAID 需要根据实际需求进行选择,同时注意数据安全和 *** 作规范。如果没有相关经验,建议寻求专业人士的帮助。
是的,要做RAID,具体方法如下:
1、第一步,启动后,MNAS将报警并登录到后台管理系统,见下图,转到下面的步骤。
2、第二步,执行完上面的 *** 作之后,将看到一条系统消息,指示磁盘已损坏,见下图,转到下面的步骤。
3、第三步,执行完上面的 *** 作之后,进入磁盘空间管理员存储池以查看异常信息,该空间已被降级,需要更换损坏的磁盘,见下图,转到下面的步骤。
4、第四步,执行完上面的 *** 作之后,插入新磁盘,选择左侧的“存储池”选项,然后找到“动作”选项,见下图,转到下面的步骤。
5、第五步,执行完上面的 *** 作之后,选择“修复”选项,见下图,转到下面的步骤。
6、第六步,执行完上面的 *** 作之后,选择新插入的“磁盘2”选项,见下图,转到下面的步骤。
7、第七步,执行完上面的 *** 作之后,可以看到存储池2的状态正在修复,并等待修复完成,见下图。这样,就解决了这个问题了。
服务器遇到的问题:插电启动后,无法从磁盘引导进入系统,引导选项没问题(设置的硬盘),短暂停顿后,系统进入PXE网络引导界面。之前的启动是正常的,在一次系统重启后出现问题。
服务器硬件:联想 ,型号:ThinkSystem SR550 。硬盘:4个SSD固态盘,RAID卡型号 AVAGO MegaRAID <RAID 530-8i> ,原RAID配置为Raid 5
排查问题:在系统引导后,按F1进入设置,查看Raid状态,Raid显示offline,Raid中2个磁盘的状态是Ubad

删掉Raid 组合,尝试重新创建VD,但是2个UBAD状态的磁盘灰色无法选择。需要修改磁盘的UBad状态。
从UEFI设置-系统设置-存储-AVAGO MegaRAID <RAID 530-8i> Configuration Utility -07031100
-删除Raid 配置,回到Raid设置,重新创建VD。
创建VD后,修改启动的驱动设备为VD0,

重启服务器,系统启动恢复到正常状态。引导成功。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)