MongoDB的复制集是一个主从复制模式 又具有故障转移的集群,任何成员都有可能是master
,
当master挂掉用会很快的重新选举一个节点来充当master。
复制集中的组成主要成员
- Primary
数据读写 master节点
- Secondary
备份Primary的数据 默认设置下 不可读 不可写
- arbiter
投票节点 此节点不会存数据 只参与投票 ,当primary节点出现异常挂掉之后 arbiter节点负责从secondary 节点中选举一个节点升级为Primary节点
其中可以设置Secondary节点可读,让Primary节点负责写,这些就实现了一个高效简单的读写分离。
环境搭建
以3个实例来演示一下复制集群的搭建过程 分别为:127.0.0.1:12345,127.0.0.1:12346,127.0.0.1:12347。
需要预先创建好各目录的文件夹 不然启动的时候会报错,这里还有一个坑是 pidfilepath配置项必须是绝对路径,
否则也会报错,replSet在同一个复制集中也需要具有一致的名称。
注意在旧版本中是使用的是master slave模式 目前使用的是3.4官方不支持使用这种方式,
官方希望使用replset代替master slave。所以当你配置master或者slave的时候就会报错。
127.0.0.1:12345配置
port=12345 |
127.0.0.1:12346配置
port=12346 |
127.0.0.1:12346配置
port=12347 |
分别启动好3个实例之后,随便进入一个实例
初始化复制集群
首先创建1个配置对象 在js中就是一个简单的对象 、json串
var rs_conf={
"_id" : "mydbCenter",
"members" : [
{
"_id" : 0,
"host" : "127.0.0.1:12345"
},
{
"_id" : 1,
"host" : "127.0.0.1:12346"
},
{
"_id" : 2,
"host" : "127.0.0.1:12347"
}
]
}
把配置应用到集群
rs.initiate(rs_conf)
这里有一个限制就是需要集群的节点中不能有数据 需要先清空一下 不然initiate
的时候会出错。
配置成功后使用rs.status()
命令查看各节点状态,一些正常 就能看到各节点的状态信息
rs.status()
搭建好复制集群之后命令行的标识符会变为相应的成员类型如
mydbCenter:PRIMARY>
mydbCenter:SECONDARY>
这也是检验集群是否搭建的成功的一个小标识。
接着可以尝试一下在Primary中写入一条数据。这条数据会立即同步到各个Secondary节点中。
当然前面也说过默认情况的Secondary不可读 会报下面的错误。
{
"ok" : 0,
"errmsg" : "not master and slaveOk=false",
"code" : 13435,
"codeName" : "NotMasterNoSlaveOk"
}
所以需要在Secondary中执行
db.getMongo().setSlaveOk()
在网络上看到有很多帖子说只要在Primary节点中执行 db.getMongo().setSlaveOk()
就能在Secondary节点中读取数据,但是在3.4版本试了一下是不行的。需要在Secondary中执行一下db.getMongo().setSlaveOk()
让Secondary可读。
添加节点
如果现在已经有搭建好一个复制集群了 老板想多加一台备份机器进去 怎么办?
只需要启动好新机器的实例后 在Primary中调用rs.add() 方法即可
rs.add({"host" : "127.0.0.1:12348"})
添加投票节点调用rs.addArb()
方法。