
顾名思义,副本集是一个集合,即MongoDB实例的集合,集合中的每个成员拥有相同的数据集合;一个副本集包含多个数据节点和一个可选的仲裁节点,在数据节点中,只有一个可以作为主节点(Primary Node),其他节点只能是第二节点(Secondary Nodes)。
主节点接收所有的写 *** 作,一个副本集只能有一个能够确认写入的主节点(Primary Node),如下图:
第二节点复制主节点的 *** 作日志并且将所有的 *** 作应用到自己的数据集合中,复制过程是异步的,如果主节点不可用,一个可以被选举的第二节点将会被选举为主节点,所以在副本集中,即使一个或者多个成员没有正常运行,但整个副本集仍然可以正常工作;主副节点关系如下图:
在某些情况下(比如受硬件条件所限,只有一个主节点和一个副节点,无法添加更多的副节点),你可以选择将mongod实例添加进副本集,并作为仲裁者(仲裁者只负责选举新的主节点,不持有数据),在副本集中,如果主节点与其他节点无法通信的时间超过配置的时间值( electionTimeoutMillis ),那么副本集将视主节点出现故障,此时将会重新选举一个正常副节点来作为新的主节点,从而让整个副本集系统正常工作,如下图:
副本集的搭建的步骤为:同时启动多个mongod实例(可以在一台服务器上,也可以在不同的服务器上),然后在每个实例的配置文件中配置相应的配置项,最后启动实例后,登录并且在做一次配置即可。
注意: 文中都是通过配置文件的方式来启动mongod实例的,你也可以通过启动参数来启动实例,同时本文中的mongod实例是通过 supervisor 来管理的,关于如何通过supervisor管理进程,可以自行查阅相关资料或者参考 这里
对于每一个配置项,如果不明白每个配置项的释义,请参考: mongo配置文件 。另外,如果实例在同一台机器上,则针对每个实例,需要区分 path , pidFilePath , port , dbPath 这几个的配置值,并且每个配置文件中的 replSetName 必须相同。
在supervisorctl中执行update,此时三个实例便启动成功。
分片是将MongoDB中的数据集分割成多个数据片,每片数据存放在不同的MongoDB实例中,可以理解为将一个MongoDB数据集拆分成多个小型数据集,而小数据集分布在相同或者不同的物理机器上,分割只是从物理层面进行分割,逻辑上仍然属于同一个数据集合。
分片包含三部分, 如下图所示:
注意: 不同的分片集群必须使用不同的配置服务器(Config Servers),不能使用同一个配置服务器(Config Servers)
分片实例的搭建与副本集类似,都是配置不同的配置文件,然后启动相应的实例:
这里只给出了关键配置项,其他配置项根据自己的实际情况配置,图中的 replSetName 表示当前实例属于哪个副本集,该副本集中的每个节点的该配置项必须一致, clusterRole 表示当前节点在分片中的的角色,可选值有: shardsvr 和 configsvr , shardsvr 表示该节点是作为Shards节点提供服务,而 configsvr 表示该节点作为Config Server节点提供服务。
至此,分片搭建完成。
准备工作:在导入数据前,先配置好要分片的数据库及表。不然导入完成后,发现数据库,表没有同步到另外一个集群。
我这里做了从原单机数据库数据导出后,再分片集群库中导入 *** 作。
当设置了要分片的库,及表后,系统会自动帮你添加库及表。
设置完成后,就可以导入数据了。
use admin
db.runCommand({enablesharding:"ip"})
db.runCommand({shardcollection:"ip.ipaddress",key:{ip1:1}})
./mongorestore -h 192.168.20.11 --port 28000 -d ip /opt/backup/ip20141109/ip
./mongorestore -h 192.168.20.11 --port 28000 -d dmp /opt/backup/dmp/dmp
1.先在路由添加5W填数据
2.开启分片
查看B片数据
查看A片数据
问题:在路由中添加5W数据,然后分片,但是呢数据现在竟然不平衡啦,查看一下原因
解决:在路由执行sh.isBalancerRunning() 返回啦false,证明平衡器没有开启
现在刚刚分片的集合开启平衡器sh.enableBalancing("user")
在查看A片数据
在查看B片数据
这时数据就恢复成正常现象啦
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)