MongoDB 知识点

MongoDB 知识点

MongoDB 创建库注意事项

数据库名可以是满足以下条件的任意UTF-8字符串。

  • 不能是空字符串("")。
  • 不得含有' '(空格)、.、$、/、\和\0 (空字符)。
  • 应全部小写。
  • 最多64字节。

有一些数据库名是保留的,可以直接访问这些有特殊作用的数据库。

  • admin: 从权限的角度来看,这是"root"数据库。要是将一个用户添加到这个数据库,这个用户自动继承所有数据库的权限。一些特
    定的服务器端命令也只能从这个数据库运行,比如列出所有的数据库或者关闭服务器。
  • local: 这个数据永远不会被复制,可以用来存储限于本地单台服务器的任意集合
  • config: 当Mongo用于分片设置时,config数据库在内部使用,用于保存分片的相关信息。
集合的命名规范:
  • 集合名不能是空字符串""。
  • 集合名不能含有\0字符(空字符),这个字符表示集合名的结尾。
  • 集合名不能以"system."开头,这是为系统集合保留的前缀。
  • 用户创建的集合名字不能含有保留字符。有些驱动程序的确支持在集合名里面包含,这是因为某些系统生成的集合中包含该字符。除
  • 非你要访问这种系统创建的集合,否则千万不要在名字里出现$。
insert 插入文档
  • 1)comment集合如果不存在,则会隐式创建
  • 2)mongo中的数字,默认情况下是double类型,如果要存整型,必须使用函数NumberInt(整型数字),否则取出来就有问题了。
  • 3)插入当前日期使用 new Date()
  • 4)插入的数据没有指定 _id ,会自动生成主键值
  • 5)如果某字段没值,可以赋值为null,或不写该字段。

注意:

  • 文档中的键/值对是有序的。
  • 文档中的值不仅可以是在双引号里面的字符串,还可以是其他几种数据类型(甚至可以是整个嵌入的文档)。
  • MongoDB区分类型和大小写。
  • MongoDB的文档不能有重复的键。
  • 文档的键是字符串。除了少数例外情况,键可以使用任意UTF-8字符。

文档键命名规范:

  • 键不能含有\0 (空字符)。这个字符用来表示键的结尾。
  • .和$有特别的意义,只有在特定环境下才能使用。
  • 以下划线"_"开头的键是保留的(不是严格要求的)。

如果某条数据插入失败,将会终止插入,但已经插入成功的数据不会回滚掉。因为批量插入由于数据较多容易出现失败,因此,可以使用try catch进行异常捕捉处理,测试的时候可以不处理。如(了解):

try {
db.comment.insertMany([
    <document 1> , <document 2>, ...
]);
} catch (e) {
    print (e);
}

文档的基本查询

#### 文档的基本查询
# 查询数据的语法格式如下:

db.collection.find(<query>, [projection])
# 例:
db.comment.find({userid:'1003'})

# 查询所有

db.comment.find()
# 或
db.comment.find({})

# 投影查询(Projection Query):如果要查询结果返回部分字段,则需要使用投影查询(不显示所有字段,只显示指定的字段)。

db.comment.find({userid:"1003"},{userid:1,nickname:1})
{ "_id" : "4", "userid" : "1003", "nickname" : "凯撒" }
{ "_id" : "5", "userid" : "1003", "nickname" : "凯撒" }

# 默认 _id 会显示。如:查询结果只显示 、userid、nickname ,不显示 _id :

db.comment.find({userid:"1003"},{userid:1,nickname:1,_id:0})
{ "userid" : "1003", "nickname" : "凯撒" }
{ "userid" : "1003", "nickname" : "凯撒" }

# 再例如:查询所有数据,但只显示 _id、userid、nickname :

db.comment.find({},{userid:1,nickname:1})

文档的更新

#### 文档的更新
# 更新文档的语法:

db.collection.update(query, update, options)
//或
db.collection.update(
    <query>,
    <update>,
    {
        upsert: <boolean>,
        multi: <boolean>,
        writeConcern: <document>,
        collation: <document>,
        arrayFilters: [ <filterdocument1>, ... ],
        hint: <document|string> // Available starting in MongoDB 4.2
    }
)

# query document 更新的选择条件。可以使用与find()方法中相同的查询选择器,类似sql update查询内where后面的。。在3.0版中进行了更改:当使用upsert:true执行update()时,如果查询使用点表示法在_id字段上指定条件,则MongoDB将拒绝插入新文档。
# update document or pipeline 要应用的修改。该值可以是:包含更新运算符表达式的文档,或仅包含:对的替换文档,或在MongoDB 4.2中启动聚合管道。
# upsert boolean 可选。如果设置为true,则在没有与查询条件匹配的文档时创建新文档。默认值为false,如果找不到匹配项,则不会插入新文档。
# multi boolean 可选。如果设置为true,则更新符合查询条件的多个文档。如果设置为false,则更新一个文档。默认值为false。
# 覆盖的修改  如果我们想修改_id为1的记录,点赞量为1001,输入以下语句:执行后,我们会发现,这条文档除了likenum字段其它字段都不见了

db.comment.update({_id:"1"},{likenum:NumberInt(1001)})

# 局部修改 为了解决这个问题,我们需要使用修改器$set来实现,命令如下:我们想修改_id为2的记录,浏览量为889,输入以下语句:

db.comment.update({_id:"2"},{$set:{likenum:NumberInt(889)}})

# 批量的修改 更新所有用户为 1003 的用户的昵称为 张三 。

//默认只修改第一条数据
db.comment.update({userid:"1003"},{$set:{nickname:"李四"}})
//修改所有符合条件的数据
db.comment.update({userid:"1003"},{$set:{nickname:"张三"}},{multi:true})

# 列值增长的修改  如果我们想实现对某列值在原有值的基础上进行增加或减少,可以使用 $inc 运算符来实现。 需求:对3号数据的点赞数,每次递增1

db.comment.update({_id:"3"},{$inc:{likenum:NumberInt(1)}})     + 1
db.comment.update({_id:"3"},{$inc:{likenum:NumberInt(1)}})     + 2
db.comment.update({userid:"1003"},{$inc:{likenum:NumberInt(1)}})   likenum +1  只修改第一条匹配到的数据
db.comment.update({userid:"1003"},{$inc:{likenum:NumberInt(1)}},{multi:true})   批量likenum +1

删除文档

#### 删除文档
# 删除文档的语法结构:
db.集合名称.remove(条件)

# 以下语句可以将数据全部删除,请慎用:
db.comment.remove({})

# 如果删除_id=1的记录,输入以下语句:

db.comment.remove({_id:"1"})
db.comment.remove({_id:ObjectId("6629d2c88b0f8e8810a1dd5d")})
db.comment.remove({userid:"1003"})

文档的分页查询

#### 文档的分页查询
# 统计查询  统计查询使用count()方法,语法如下:

db.collection.count(query, options)

# 统计所有记录数: 统计comment集合的所有的记录数:
db.comment.count()

# 按条件统计记录数: 例如:统计userid为1003的记录条数
db.comment.count({userid:"1003"})
db.comment.countDocuments({userid:"1003"})    # mongodb6.0

# 默认情况下 count() 方法返回符合条件的全部记录条数。

分页列表查询

#### 分页列表查询
# 可以使用limit()方法来读取指定数量的数据,使用skip()方法来跳过指定数量的数据。
# 基本语法如下所示: 
db.COLLECTION_NAME.find().limit(NUMBER).skip(NUMBER)

# 如果你想返回指定条数的记录,可以在find方法后调用limit来返回结果(TopN),默认值20,例如: 
db.comment.find().limit(3)

# skip方法同样接受一个数字参数作为跳过的记录条数。(前N个不要),默认值是0
db.comment.find().skip(3)

# 分页查询: 需求: 每页2个,第二页开始: 跳过前两条数据,接着值显示3和4条数据
//第一页
db.comment.find().skip(0).limit(2)
//第二页
db.comment.find().skip(2).limit(2)
//第三页
db.comment.find().skip(4).limit(2)

排序查询

# sort() 方法对数据进行排序,sort() 方法可以通过参数指定排序的字段,并使用 1 和 -1 来指定排序的方式,其中 1 为升序排列,而 -1 是用于降序排列。
# 语法如下所示: 
db.COLLECTION_NAME.find().sort({KEY:1})
# 或
db.集合名称.find().sort(排序方式)

# 对userid降序排列,并对访问量进行升序排列
db.comment.find().sort({userid:-1,likenum:1})

# 提示
skip(), limilt(), sort()三个放在一起执行的时候,执行的顺序是先 sort(), 然后是 skip(),最后是显示的 limit(),和命令编写顺序无关。

文档的更多查询

### 正则的复杂条件查询  MongoDB的模糊查询是通过正则表达式的方式实现的。格式为: 
db.collection.find({field:/正则表达式/})
# 或
db.集合.find({字段:/正则表达式/})

# 提示: 正则表达式是js的语法,直接量的写法。
# 例如,我要查询评论内容包含“开水”的所有文档,代码如下: 
db.comment.find({content:/开水/})

# 如果要查询评论的内容中以“专家”开头的,代码如下: 
db.comment.find({content:/^专家/})

# 以xxx结尾查询: 
db.comment.find({nickname:/三$/})
### 比较查询  <, <=, >, >= 这个操作符也是很常用的,格式如下:
db.集合名称.find({ "field" : { $gt: value }}) // 大于: field > value
db.集合名称.find({ "field" : { $lt: value }}) // 小于: field < value
db.集合名称.find({ "field" : { $gte: value }}) // 大于等于: field >= value
db.集合名称.find({ "field" : { $lte: value }}) // 小于等于: field <= value
db.集合名称.find({ "field" : { $ne: value }}) // 不等于: field != value

# 示例: 查询评论点赞数量大于700的记录
db.comment.find({likenum:{$gt:NumberInt(700)}})
### 包含查询  包含使用$in操作符。 
# 示例: 查询评论的集合中userid字段包含1003或1004的文档
db.comment.find({userid:{$in:["1003","1004"]}})

# 不包含使用$nin操作符。 示例: 查询评论集合中userid字段不包含1003和1004的文档
db.comment.find({userid:{$nin:["1003","1004"]}})
### 条件连接查询
# 我们如果需要查询同时满足两个以上条件,需要使用$and操作符将条件进行关联。(相 当于SQL的and) 格式为: 
$and:[ { },{ },{ } ]

# 示例: 查询评论集合中likenum大于等于700 并且小于2000的文档: 
db.comment.find({$and:[{likenum:{$gte:NumberInt(700)}},{likenum:{$lt:NumberInt(2000)}}]})

# 如果两个以上条件之间是或者的关系,我们使用 操作符进行关联,与前面 and的使用方式相同 格式为: 
$or:[ { },{ },{ } ]

# 示例: 查询评论集合中userid为1003,或者点赞数小于1000的文档记录
db.comment.find({$or:[ {userid:"1003"} ,{likenum:{$lt:1000} }]})

常用命令小结

选择切换数据库: use articledb
插入数据: db.comment.insert({bson数据})
查询所有数据: db.comment.find();
条件查询数据: db.comment.find({条件})
查询符合条件的第一条记录: db.comment.findOne({条件})
查询符合条件的前几条记录: db.comment.find({条件}).limit(条数)
查询符合条件的跳过的记录: db.comment.find({条件}).skip(条数)
修改数据: db.comment.update({条件},{修改后的数据}) 或db.comment.update({条件},{$set:{要修改部分的字段:数据})
修改数据并自增某字段值: db.comment.update({条件},{$inc:{自增的字段:步进值}})
删除数据: db.comment.remove({条件})
统计查询: db.comment.count({条件})
模糊查询: db.comment.find({字段名:/正则表达式/})
条件比较运算: db.comment.find({字段名:{$gt:值}})
包含查询: db.comment.find({字段名:{$in:[值1,值2]}})或db.comment.find({字段名:{$nin:[值1,值2]}})
条件连接查询: db.comment.find({$and:[{条件1},{条件2}]})或db.comment.find({$or:[{条件1},{条件2}]})

索引

索引的类型

  • 单字段索引
    • MongoDB支持在文档的单个字段上创建用户定义的升序/降序索引,称为单字段索引(Single Field Index)。对于单个字段索引和排序操作,索引键的排序顺序(即升序或降序)并不重要,因为MongoDB可以在任何方向上遍历索引。
  • 复合索引
    • MongoDB还支持多个字段的用户定义索引,即复合索引(Compound Index)。复合索引中列出的字段顺序具有重要意义。例如,如果复合索引由 { userid: 1, score: -1 } 组成,则索引首先按userid正序排序,然后在每个userid的值内,再在按score倒序排序。
  • 其他索引: 地理空间索引(Geospatial Index)、文本索引(Text Indexes)、哈希索引(Hashed Indexes)。
    • 地理空间索引(Geospatial Index)
    • 为了支持对地理空间坐标数据的有效查询,MongoDB提供了两种特殊的索引: 返回结果时使用平面几何的二维索引和返回结果时使用球面几何的二维球面索引。
    • 文本索引(Text Indexes)
    • MongoDB提供了一种文本索引类型,支持在集合中搜索字符串内容。这些文本索引不存储特定于语言的停止词(例如“the”、“a”、“or”),而将集合中的词作为词干,只存储根词。
    • 哈希索引(Hashed Indexes)
    • 为了支持基于散列的分片,MongoDB提供了散列索引类型,它对字段值的散列进行索引。这些索引在其范围内的值分布更加随机,但只支持相等匹配,不支持基于范围的查询。

索引的管理操作

### 索引的查看
# 返回一个集合中的所有索引的数组。语法:
db.collection.getIndexes()

# 提示: 该语法命令运行要求是MongoDB 3.0+

#【示例】查看comment集合中所有的索引情况
db.collection.getIndexes()
[ { v: 2, key: { _id: 1 }, name: '_id_' } ]

# 结果中显示的是默认 _id 索引。
# 默认_id索引:
# MongoDB在创建集合的过程中,在 _id 字段上创建一个唯一的索引,默认名字为 _id_ ,该索引可防止客户端插入两个具有相同值的文
# 档,您不能在_id字段上删除此索引。
# 注意:该索引是唯一索引,因此值不能重复,即 _id 值不能重复的。在分片集群中,通常使用 _id 作为片键。
### 索引的创建
# 在集合上创建索引。语法:
db.collection.createIndex(keys, options)

# keys 包含字段和值对的文档,其中字段是索引键,值描述该字段的索引类型。对于字段上的升序索引,请指定值1;对于降序索引,请指定值-1。
# 比如: {字段:1或-1} ,其中1 为指定按升序创建索引,如果你想按降序来创建索引指定为 -1 即可。
# 另外,MongoDB支持几种不同的索引类型,包括文本、地理空间和哈希索引。

# options 常用列表:
unique Boolean 建立的索引是否唯一。指定为true创建唯一索引。默认值为false.
name string 索引的名称。如果未指定,MongoDB的通过连接索引的字段名和排序顺序生成一个索引名称。
weights document 索引权重值,数值在 1 到 99,999 之间,表示该索引相对于其他索引字段的得分权重。

# 单字段索引示例:对 userid 字段建立索引: 按升序创建索引
db.comment.createIndex({userid:1})

db.comment.getIndexes()
[
  { v: 2, key: { _id: 1 }, name: '_id_' },
  { v: 2, key: { userid: 1 }, name: 'userid_1' }
]

# 复合索引:对 userid 和 nickname 同时建立复合(Compound)索引:
db.comment.createIndex({userid:1,nickname:-1})

db.comment.getIndexes()
[
  { v: 2, key: { _id: 1 }, name: '_id_' },
  { v: 2, key: { userid: 1 }, name: 'userid_1' },
  {
    v: 2,
    key: { userid: 1, nickname: -1 },
    name: 'userid_1_nickname_-1'
  }
]
### 索引的移除
# 说明:可以移除指定的索引,或移除所有索引
# 指定索引的移除   指定要删除的索引。可以通过索引名称或索引规范文档指定索引。若要删除文本索引,请指定索引名称。
db.collection.dropIndex(index) 

# 【示例】删除 comment 集合中 userid 字段上的升序索引:
db.comment.dropIndex({userid:1})

# 所有索引的移除  提示: _id 的字段的索引是无法删除的,只能删除非 _id 字段的索引。
db.collection.dropIndexes()

索引的使用

### 索引的使用
# 执行计划
# 分析查询性能(Analyze Query Performance)通常使用执行计划(解释计划、Explain Plan)来查看查询的情况,如查询耗费的时间、是否基于索引查询等。
# 那么,通常,我们想知道,建立的索引是否有效,效果如何,都需要通过执行计划查看。
# 语法:
db.collection.find(query,options).explain(options)

# 示例
db.comment.find({userid:"1003"}).explain()

{
  explainVersion: '1',
  queryPlanner: {
    namespace: 'test.comment',
    indexFilterSet: false,
    parsedQuery: {
      userid: {
        '$eq': '1003'
      }
    },
    queryHash: '82257C83',
    planCacheKey: 'A0561478',
    maxIndexedOrSolutionsReached: false,
    maxIndexedAndSolutionsReached: false,
    maxScansToExplodeReached: false,
    winningPlan: {
      stage: 'FETCH',
      inputStage: {
        stage: 'IXSCAN',
        keyPattern: {
          userid: 1
        },
        indexName: 'userid_1',
        isMultiKey: false,
        multiKeyPaths: {
          userid: []
        },
        isUnique: false,
        isSparse: false,
        isPartial: false,
        indexVersion: 2,
        direction: 'forward',
        indexBounds: {
          userid: [
            '["1003", "1003"]'
          ]
        }
      }
    },
    rejectedPlans: [
      {
        stage: 'FETCH',
        inputStage: {
          stage: 'IXSCAN',
          keyPattern: {
            userid: 1,
            nickname: -1
          },
          indexName: 'userid_1_nickname_-1',
          isMultiKey: false,
          multiKeyPaths: {
            userid: [],
            nickname: []
          },
          isUnique: false,
          isSparse: false,
          isPartial: false,
          indexVersion: 2,
          direction: 'forward',
          indexBounds: {
            userid: [
              '["1003", "1003"]'
            ],
            nickname: [
              '[MaxKey, MinKey]'
            ]
          }
        }
      }
    ]
  },
  command: {
    find: 'comment',
    filter: {
      userid: '1003'
    },
    '$db': 'test'
  },
  serverInfo: {
    host: 'psmdb-db-rs0-0',
    port: 27017,
    version: '6.0.9-7',
    gitVersion: '81b02fc96fb1fe0fc550b98f870e1ca01c574dd4'
  },
  serverParameters: {
    internalQueryFacetBufferSizeBytes: 104857600,
    internalQueryFacetMaxOutputDocSizeBytes: 104857600,
    internalLookupStageIntermediateDocumentMaxSizeBytes: 104857600,
    internalDocumentSourceGroupMaxMemoryBytes: 104857600,
    internalQueryMaxBlockingSortMemoryUsageBytes: 104857600,
    internalQueryProhibitBlockingMergeOnMongoS: 0,
    internalQueryMaxAddToSetBytes: 104857600,
    internalDocumentSourceSetWindowFieldsMaxMemoryBytes: 104857600
  },
  ok: 1,
  '$clusterTime': {
    clusterTime: Timestamp({ t: 1714031752, i: 2 }),
    signature: {
      hash: Binary.createFromBase64('U2qoVPMTrFfFQL/2VDFksLjKGk8=', 0),
      keyId: 7323408681268150000
    }
  },
  operationTime: Timestamp({ t: 1714031752, i: 2 })
}
# 关键点看: "stage" : "COLLSCAN", 表示全集合扫描
# 关键点看: "stage" : "IXSCAN" , 基于索引的扫描
### 涵盖的查询
# Covered Queries 当查询条件和查询的投影仅包含索引字段时,MongoDB直接从索引返回结果,而不扫描任何文档或将文档带入内存。 
# 这些覆盖的查询可以非常有效。
db.comment.find({userid:"1003"},{userid:1,_id:0})

文章评论-案例分析

需要实现以下功能:

  • 基本增删改查API
  • 根据文章id查询评论
  • 评论点赞
### 表结构分析
字段名称    字段含义        字段类型            备注
_id         ID      ObjectId或String    Mongo的主键的字段
articleid   文章ID          String
content     评论内容        String
userid      评论人ID        String
nickname    评论人昵称      String
createdatetime 评论的日期时间 Date
likenum     点赞数          Int32
replynum    回复数          Int32
state       状态            String       0: 不可见; 1: 可见;
parentid    上级ID          String      如果为0表示文章的顶级评论

MongoDB集群和安全

  • MongoDB的副本集:操作、主要概念、故障转移、选举规则
  • MongoDB的分片集群:概念、优点、操作、分片策略、故障转移
  • MongoDB的安全认证

副本集-Replica Sets

  • 冗余和数据可用性
    • 复制提供冗余并提高数据可用性。 通过在不同数据库服务器上提供多个数据副本,
      复制可提供一定级别的容错功能,以防止丢失单个数据库服务器。
  • MongoDB中的复制
    • 主节点接收所有写操作。 副本集只能有一个主要能够确认具有{w:“most”}写入关注的写入;
      虽然在某些情况下,另一个mongod实例可能暂时认为自己也是主要的。主要记录其操作日志中的数据集的所有更改,即oplog。
  • 主从复制和副本集区别
    • 主从集群和副本集最大的区别就是副本集没有固定的“主节点”;整个集群会选出一个“主节点”,
      当其挂掉后,又在剩下的从节点中选中其他节点为“主节点”,副本集总有一个活跃点(主、primary)和一个或多个备份节点(从、secondary)。
副本集的三个角色

副本集有两种类型三种角色

两种类型:

  • 主节点(Primary)类型:数据操作的主要连接点,可读写。
  • 次要(辅助、从)节点(Secondaries)类型:数据冗余备份节点,可以读或选举。

三种角色:

  • 主要成员(Primary):主要接收所有写操作。就是主节点。
  • 副本成员(Replicate):从主节点通过复制操作以维护相同的数据集,即备份数据,不可写操作,但可以读操作(但需要配置)。是默认的一种从节点类型。
  • 仲裁者(Arbiter):不保留任何数据的副本,只具有投票选举作用。当然也可以将仲裁服务器维护为副本集的一部分,即副本成员同时也可以是仲裁者。也是一种从节点类型。

副本集的创建

### 第一步:创建主节点
# -----------myrs
# 主节点
mkdir -p /mongodb/replica_sets/myrs_27017/log \ &
mkdir -p /mongodb/replica_sets/myrs_27017/data/db

# 新建或修改配置文件:
vim /mongodb/replica_sets/myrs_27017/mongod.conf
# myrs_27017:
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/replica_sets/myrs_27017/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
storage:
  #mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
  dbPath: "/mongodb/replica_sets/myrs_27017/data/db"
  journal:
    #启用或禁用持久性日志以确保数据文件保持有效和可恢复。
    enabled: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: "/mongodb/replica_sets/myrs_27017/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27017
replication:
  #副本集的名称
  replSetName: myrs

# 启动节点服务:
 /usr/local/mongodb/bin/mongod -f /mongodb/replica_sets/myrs_27017/mongod.conf
### 第二步:创建副本节点
# 建立存放数据和日志的目录
#-----------myrs
#副本节点
mkdir -p /mongodb/replica_sets/myrs_27018/log \ &
mkdir -p /mongodb/replica_sets/myrs_27018/data/db

# 新建或修改配置文件:
vim /mongodb/replica_sets/myrs_27018/mongod.conf
# myrs_27018:
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/replica_sets/myrs_27018/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
storage:
  #mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
  dbPath: "/mongodb/replica_sets/myrs_27018/data/db"
  journal:
    #启用或禁用持久性日志以确保数据文件保持有效和可恢复。
    enabled: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: "/mongodb/replica_sets/myrs_27018/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27018
replication:
  #副本集的名称
  replSetName: myrs

# 启动节点服务:
 /usr/local/mongodb/bin/mongod -f /mongodb/replica_sets/myrs_27018/mongod.conf
### 第三步:创建仲裁节点
# 建立存放数据和日志的目录
#-----------myrs
#仲裁节点
mkdir -p /mongodb/replica_sets/myrs_27019/log \ &
mkdir -p /mongodb/replica_sets/myrs_27019/data/db

# 仲裁节点 新建或修改配置文件:
vim /mongodb/replica_sets/myrs_27019/mongod.conf
# myrs_27019:
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/replica_sets/myrs_27019/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
storage:
  #mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
  dbPath: "/mongodb/replica_sets/myrs_27019/data/db"
  journal:
    #启用或禁用持久性日志以确保数据文件保持有效和可恢复。
    enabled: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: "/mongodb/replica_sets/myrs_27019/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27019
replication:
  #副本集的名称
  replSetName: myrs

# 启动节点服务:
 /usr/local/mongodb/bin/mongod -f /mongodb/replica_sets/myrs_27019/mongod.conf
### 第四步:初始化配置副本集和主节点
# 使用客户端命令连接任意一个节点,但这里尽量要连接主节点(27017节点):
/usr/local/mongodb/bin/mongo --host=192.168.0.2 --port=27017

# 结果,连接上之后,很多命令无法使用,,比如 show dbs 等,必须初始化副本集才行
# 准备初始化新的副本集:
# 语法:
rs.initiate(configuration)

# 使用默认的配置来初始化副本集:
rs.initiate()

# 提示:
# 1)“ok”的值为1,说明创建成功。
# 2)命令行提示符发生变化,变成了一个从节点角色,此时默认不能读写。稍等片刻,回车,变成主节点。
### 第五步:查看副本集的配置内容
# 返回包含当前副本集配置的文档。
# 语法:
rs.conf(configuration)

# 【示例】
# 在27017上执行副本集中当前节点的默认节点配置
rs.conf()

# 说明:
# 1) "_id" : "myrs" :副本集的配置数据存储的主键值,默认就是副本集的名字
# 2) "members" :副本集成员数组,此时只有一个: "host" : "192.168.0.2:27017" ,该成员不是仲裁节点: "arbiterOnly" : false ,优先级(权重值): "priority" : 1,
# 3) "settings" :副本集的参数配置。

# 提示:副本集配置的查看命令,本质是查询的是 system.replset 的表中的数据
use local
show collections
 db.system.replset.find()
### 第六步:查看副本集状态
# 检查副本集状态。
# 说明:返回包含状态信息的文档。此输出使用从副本集的其他成员发送的心跳包中获得的数据反映副本集的当前状态。
# 语法:
rs.status()

# 说明:
# 1) "set" : "myrs" :副本集的名字
# 2) "myState" : 1:说明状态正常
# 3) "members" :副本集成员数组,此时只有一个: "name" : "192.168.0.2:27017" ,该成员的角色是 "stateStr" : "PRIMARY", 该节点是健康的: "health" : 1 。
#### 第七步:添加副本从节点
# 在主节点添加从节点,将其他成员加入到副本集
# 语法:
rs.add(host, arbiterOnly)
# 选项:
host string or document 要添加到副本集的新成员
arbiterOnly boolean 可选的。仅在 <host> 值为字符串时适用。 如果为true,则添加的主机是仲裁者。

# 主机成员的配置文档:
{
    _id: <int>,
    host: <string>, // required
    arbiterOnly: <boolean>,
    buildIndexes: <boolean>,
    hidden: <boolean>,
    priority: <number>,
    tags: <document>,
    slaveDelay: <int>,
    votes: <number>
}

# 【示例】将27018的副本节点添加到副本集中:
rs.add("192.168.0.2:27018")

# 说明: "ok" : 1 :说明添加成功。

# 查看副本集状态:
rs.status()

# 说明:"name" : "192.168.0.2:27018" 是第二个节点的名字,其角色是 "stateStr" :"SECONDARY"
### 第八步:添加仲裁从节点
# 添加一个仲裁节点到副本集
# 语法:
rs.addArb(host)

# 将27019的仲裁节点添加到副本集中:
rs.addArb("192.168.0.2:27019")

# 说明: "ok" : 1 :说明添加成功。

# 查看副本集状态:
rs.status()

# 说明: "name" : "192.168.0.2:27019" 是第二个节点的名字,其角色是 "stateStr" : "ARBITER"

主节点的选举原则

MongoDB在副本集中,会自动进行主节点的选举,主节点选举的触发条件:

  • 主节点故障
  • 主节点网络不可达(默认心跳信息为10秒)
  • 人工干预(rs.stepDown(600))
    一旦触发选举,就要根据一定规则来选主节点。

选举规则是根据票数来决定谁获胜:

  • 票数最高,且获得了“大多数”成员的投票支持的节点获胜。“大多数”的定义为:假设复制集内投票成员数量为N,则大多数为 N/2 + 1
  • 若票数相同,且都获得了“大多数”成员的投票支持的,数据新的节点获胜。数据的新旧是通过操作日志oplog来对比的。
  • 在获得票数的时候,优先级(priority)参数影响重大。

    • rs.conf() 主节点和副本节点的优先级各为1,即,默认可以认为都已经有了一票。但选举节点,优先级是0
    • 可以通过设置优先级(priority)来设置额外票数。优先级即权重,取值为0-1000
    • 默认情况下,优先级的值是1
### 修改优先级
# 下面提升从节点的优先级:
# 先将配置导入cfg变量
cfg=rs.conf()

# 然后修改值(ID号默认从0开始):
cfg.members[1].priority=2

# 重新加载配置 稍等片刻会重新开始选举。
rs.reconfig(cfg)
### MongoDB客户端连接语法:
mongodb://[username:password@]host1[:port1][,host2[:port2],...[,hostN[:portN]]][/[database][?options]]
mongodb:// 这是固定的格式,必须要指定。
username:password@ 可选项,如果设置,在连接数据库服务器之后,驱动都会尝试登陆这个数据库
host1 必须的指定至少一个host, host1 是这个URI唯一要填写的。它指定了要连接服务器的地址。如果要连接复制集,请指定多个主机地址。
portX 可选的指定端口,如果不填,默认为27017
/database 如果指定username:password@,连接并验证登陆指定数据库。若不指定,默认打开test 数据库。
?options 是连接选项。如果不使用/database,则前面需要加上/。所有连接选项都是键值对name=value,键值对之间通过&或;(分号)隔开
选项:
replicaSet=name
slaveOk=true|false
safe=true|false
w=n
wtimeoutMS=ms
fsync=true|false
journal=true|false
connectTimeoutMS=ms
socketTimeoutMS=ms

分片集群-Sharded Cluster

分片(sharding)是一种跨多台机器分布数据的方法, MongoDB使用分片来支持具有非常大的数据集
和高吞吐量操作的部署。

换句话说:分片(sharding)是指将数据拆分,将其分散存在不同的机器上的过程。有时也用分区
(partitioning)来表示这个概念。将数据分散到不同的机器上,不需要功能强大的大型计算机就可以储存
更多的数据,处理更多的负载。

分片集群包含的组件

MongoDB分片群集包含以下组件:

  • 分片(存储):每个分片包含分片数据的子集。 每个分片都可以部署为副本集。
  • mongos(路由):mongos充当查询路由器,在客户端应用程序和分片集群之间提供接口。
  • config servers(“调度”的配置):配置服务器存储群集的元数据和配置设置。 从MongoDB 3.4开始,必须将配置服务器部署为副本集(CSRS)。

分片集群架构目标

  • 两个分片节点副本集(3+3)+一个配置节点副本集(3)+两个路由节点(2),共11个服务节点。

分片(存储)节点副本集的创建

所有的的配置文件都直接放到 sharded_cluster 的相应的子目录下面,默认配置文件名字:mongod.conf

### 第一套副本集
# 准备存放数据和日志的目录:
#-----------myshardrs01
mkdir -p /mongodb/sharded_cluster/myshardrs01_27018/log \ &
mkdir -p /mongodb/sharded_cluster/myshardrs01_27018/data/db \ &

mkdir -p /mongodb/sharded_cluster/myshardrs01_27118/log \ &
mkdir -p /mongodb/sharded_cluster/myshardrs01_27118/data/db \ &

mkdir -p /mongodb/sharded_cluster/myshardrs01_27218/log \ &
mkdir -p /mongodb/sharded_cluster/myshardrs01_27218/data/db

vim /mongodb/sharded_cluster/myshardrs01_27018/mongod.conf
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/sharded_cluster/myshardrs01_27018/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
storage:
  #mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
  dbPath: "/mongodb/sharded_cluster/myshardrs01_27018/data/db"
  journal:
    #启用或禁用持久性日志以确保数据文件保持有效和可恢复。
    enabled: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: "/mongodb/sharded_cluster/myshardrs01_27018/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27018
replication:
  #副本集的名称
  replSetName: myshardrs01
sharding:
  #分片角色
  clusterRole: shardsvr

# 注意:
设置sharding.clusterRole需要mongod实例运行复制。 要将实例部署为副本集成员,请使用replSetName设置并指定副本集的名称。

vim /mongodb/sharded_cluster/myshardrs01_27118/mongod.conf
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/sharded_cluster/myshardrs01_27118/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
storage:
  #mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
  dbPath: "/mongodb/sharded_cluster/myshardrs01_27118/data/db"
  journal:
    #启用或禁用持久性日志以确保数据文件保持有效和可恢复。
    enabled: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: "/mongodb/sharded_cluster/myshardrs01_27118/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27118
replication:
  #副本集的名称
  replSetName: myshardrs01
sharding:
  #分片角色
  clusterRole: shardsvr

vim /mongodb/sharded_cluster/myshardrs01_27218/mongod.conf
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/sharded_cluster/myshardrs01_27218/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
storage:
  #mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
  dbPath: "/mongodb/sharded_cluster/myshardrs01_27218/data/db"
  journal:
    #启用或禁用持久性日志以确保数据文件保持有效和可恢复。
    enabled: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: "/mongodb/sharded_cluster/myshardrs01_27218/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27218
replication:
  #副本集的名称
  replSetName: myshardrs01
sharding:
  #分片角色
  clusterRole: shardsvr

# 启动第一套副本集:一主一副本一仲裁
# 依次启动三个mongod服务:
# 初始化副本集和创建主节点: 使用客户端命令连接任意一个节点,但这里尽量要连接主节点:
/usr/local/mongodb/bin/mongo --host 192.168.0.2 --port 27018
rs.initiate()
rs.add("192.168.0.2:27118")
rs.addArb("192.168.0.2:27218")
### 第二套副本集
#-----------myshardrs02
mkdir -p /mongodb/sharded_cluster/myshardrs02_27318/log \ &
mkdir -p /mongodb/sharded_cluster/myshardrs02_27318/data/db \ &

mkdir -p /mongodb/sharded_cluster/myshardrs02_27418/log \ &
mkdir -p /mongodb/sharded_cluster/myshardrs02_27418/data/db \ &

mkdir -p /mongodb/sharded_cluster/myshardrs02_27518/log \ &
mkdir -p /mongodb/sharded_cluster/myshardrs02_27518/data/db

vim /mongodb/sharded_cluster/myshardrs02_27318/mongod.conf
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/sharded_cluster/myshardrs02_27318/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
storage:
  #mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
  dbPath: "/mongodb/sharded_cluster/myshardrs02_27318/data/db"
  journal:
    #启用或禁用持久性日志以确保数据文件保持有效和可恢复。
    enabled: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: "/mongodb/sharded_cluster/myshardrs02_27318/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27318
replication:
  #副本集的名称
  replSetName: myshardrs02
sharding:
  #分片角色
  clusterRole: shardsvr

vim /mongodb/sharded_cluster/myshardrs02_27418/mongod.conf
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/sharded_cluster/myshardrs02_27418/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
storage:
  #mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
  dbPath: "/mongodb/sharded_cluster/myshardrs02_27418/data/db"
  journal:
    #启用或禁用持久性日志以确保数据文件保持有效和可恢复。
    enabled: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: "/mongodb/sharded_cluster/myshardrs02_27418/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27418
replication:
  #副本集的名称
  replSetName: myshardrs02
sharding:
  #分片角色
  clusterRole: shardsvr

vim /mongodb/sharded_cluster/myshardrs02_27518/mongod.conf
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/sharded_cluster/myshardrs02_27518/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
storage:
  #mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
  dbPath: "/mongodb/sharded_cluster/myshardrs02_27518/data/db"
  journal:
    #启用或禁用持久性日志以确保数据文件保持有效和可恢复。
    enabled: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: "/mongodb/sharded_cluster/myshardrs02_27518/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27518
replication:
  #副本集的名称
  replSetName: myshardrs02
sharding:
  #分片角色
  clusterRole: shardsvr

# 启动第二套副本集:一主一副本一仲裁
# 依次启动三个mongod服务:
# 初始化副本集和创建主节点: 使用客户端命令连接任意一个节点,但这里尽量要连接主节点:
/usr/local/mongodb/bin/mongo --host 192.168.0.2 --port 27318
rs.initiate()
rs.add("192.168.0.2:27418")
rs.addArb("192.168.0.2:27518")
### 配置节点副本集的创建
#-----------configrs
#建立数据节点data和日志目录
mkdir -p /mongodb/sharded_cluster/myconfigrs_27019/log \ &
mkdir -p /mongodb/sharded_cluster/myconfigrs_27019/data/db \ &

mkdir -p /mongodb/sharded_cluster/myconfigrs_27119/log \ &
mkdir -p /mongodb/sharded_cluster/myconfigrs_27119/data/db \ &

mkdir -p /mongodb/sharded_cluster/myconfigrs_27219/log \ &
mkdir -p /mongodb/sharded_cluster/myconfigrs_27219/data/db

vim /mongodb/sharded_cluster/myconfigrs_27019/mongod.conf
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/sharded_cluster/myconfigrs_27019/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
storage:
  #mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
  dbPath: "/mongodb/sharded_cluster/myconfigrs_27019/data/db"
  journal:
    #启用或禁用持久性日志以确保数据文件保持有效和可恢复。
    enabled: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: "/mongodb/sharded_cluster/myconfigrs_27019/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27019
replication:
  #副本集的名称
  replSetName: myconfigrs
sharding:
  #分片角色
  clusterRole: configsvr

vim /mongodb/sharded_cluster/myconfigrs_27119/mongod.conf
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/sharded_cluster/myconfigrs_27119/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
storage:
  #mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
  dbPath: "/mongodb/sharded_cluster/myconfigrs_27119/data/db"
  journal:
    #启用或禁用持久性日志以确保数据文件保持有效和可恢复。
    enabled: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: "/mongodb/sharded_cluster/myconfigrs_27119/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27119
replication:
  #副本集的名称
  replSetName: myconfigrs
sharding:
  #分片角色
  clusterRole: configsvr

vim /mongodb/sharded_cluster/myconfigrs_27219/mongod.conf
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/sharded_cluster/myconfigrs_27219/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
storage:
  #mongod实例存储其数据的目录。storage.dbPath设置仅适用于mongod。
  dbPath: "/mongodb/sharded_cluster/myconfigrs_27219/data/db"
  journal:
    #启用或禁用持久性日志以确保数据文件保持有效和可恢复。
    enabled: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: "/mongodb/sharded_cluster/myconfigrs_27219/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27219
replication:
  #副本集的名称
  replSetName: myconfigrs
sharding:
  #分片角色
  clusterRole: configsvr

/usr/local/mongodb/bin/mongo --host 192.168.0.2 --port 27019
rs.initiate()
rs.add("192.168.0.2:27119")
rs.addArb("192.168.0.2:27219")
### 路由节点的创建和操作
#-----------mongos01
mkdir -p /mongodb/sharded_cluster/mymongos_27017/log

# mymongos_27017节点:
vi /mongodb/sharded_cluster/mymongos_27017/mongos.conf
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/sharded_cluster/mymongos_27017/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: /mongodb/sharded_cluster/mymongos_27017/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27017
sharding:
  #指定配置节点副本集
  configDB: myconfigrs/192.168.0.2:27019,192.168.0.2:27119,192.168.0.2:27219

# 启动mongos:
 /usr/local/mongodb/bin/mongos -f /mongodb/sharded_cluster/mymongos_27017/mongos.conf

# 客户端登录mongos
/usr/local/mongodb/bin/mongo --host 192.168.0.2 --port 27017

properties配置文件参考:
logpath=/mongodb/sharded_cluster/mymongos_27017/log/mongos.log
logappend=true
bind_ip_all=true
port=27017
fork=true
configdb=myconfigrs/192.168.0.2:27019,192.168.0.2:27119,192.168.0.2:27219
19
### 在路由节点上进行分片配置操作
# 1 添加分片:
# 语法:
sh.addShard("IP:Port")

# 将第一套分片副本集添加进来:
mongos>
sh.addShard("myshardrs01/192.168.0.2:27018,192.168.0.2:27118,192.168.0.2:27218")

# 继续将第二套分片副本集添加进来:
mongos>
sh.addShard("myshardrs02/192.168.0.2:27318,192.168.0.2:27418,192.168.0.2:27518")

# 提示:如果添加分片失败,需要先手动移除分片,检查添加分片的信息的正确性后,再次添加分片。
# 移除分片参考(了解):
use admin
db.runCommand( { removeShard: "myshardrs02" } )

# 注意:如果只剩下最后一个shard,是无法删除的,移除时会自动转移分片数据,需要一个时间过程。完成后,再次执行删除分片命令才能真正删除。

# 2 开启分片功能:sh.enableSharding("库名")、sh.shardCollection("库名.集合名",{"key":1})
# 在mongos上的articledb数据库配置sharding:
mongos> sh.enableSharding("articledb")

# 3 集合分片
# 对集合分片,你必须使用 sh.shardCollection() 方法指定集合和分片键。
# 语法:
sh.shardCollection(namespace, key, unique)

分片规则一:哈希策略
mongos> sh.shardCollection("articledb.comment",{"nickname":"hashed"})

分片规则二:范围策略
mongos> sh.shardCollection("articledb.author",{"age":1})

# 注意的是:
# 1 一个集合只能指定一个片键,否则报错。
# 2 一旦对一个集合分片,分片键和分片值就不可改变。 如:不能给集合选择不同的分片键、不能更新分片键的值。
# 3 根据age索引进行分配数据。
### 分片后插入数据测试
# 测试一(哈希规则):登录mongs后,向comment循环插入1000条数据做测试:
mongos> use articledb
mongos> for(var i=1;i<=1000;i++)
  {db.comment.insert({_id:i+"",nickname:"BoBo"+i})}
mongos> db.comment.count()

# 提示:js的语法,因为mongo的shell是一个JavaScript的shell。
# 注意:从路由上插入的数据,必须包含片键,否则无法插入。

# 测试二(范围规则):登录mongs后,向comment循环插入1000条数据做测试:
mongos> use articledb
switched to db articledb
mongos> for(var i=1;i<=20000;i++)
  {db.author.save({"name":"BoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBoBo"+i,"age":NumberInt(i%120)})}
mongos> db.comment.count()
20000

# 如果查看状态发现没有分片,则可能是由于以下原因造成了:
# 1 系统繁忙,正在分片中。
# 2 数据块chunk没有填满,默认的数据块尺寸chunksize是64M,填满后才会考虑向其他片的
# 数据块填充数据,因此,为了测试,可以将其改小,这里改为1M,操作如下:
use config
db.settings.save( { _id:"chunksize", value: 1 } )
# 测试完改回来:
db.settings.save( { _id:"chunksize", value: 64 } )

# 注意:要先改小,再设置分片。为了测试,可以先删除集合,重新建立集合的分片策略,再插入数据测试即可。
### 再增加一个路由节点
#-----------mongos02
mkdir -p /mongodb/sharded_cluster/mymongos_27117/log
vi /mongodb/sharded_cluster/mymongos_27117/mongos.conf
systemLog:
  #MongoDB发送所有日志输出的目标指定为文件
  destination: file
  #mongod或mongos应向其发送所有诊断日志记录信息的日志文件的路径
  path: "/mongodb/sharded_cluster/mymongos_27117/log/mongod.log"
  #当mongos或mongod实例重新启动时,mongos或mongod会将新条目附加到现有日志文件的末尾。
  logAppend: true
processManagement:
  #启用在后台运行mongos或mongod进程的守护进程模式。
  fork: true
  #指定用于保存mongos或mongod进程的进程ID的文件位置,其中mongos或mongod将写入其PID
  pidFilePath: /mongodb/sharded_cluster/mymongos_27117/log/mongod.pid"
net:
  #服务实例绑定所有IP,有副作用,副本集初始化的时候,节点名字会自动设置为本地域名,而不是ip
  #bindIpAll: true
  #服务实例绑定的IP
  bindIp: localhost,192.168.0.2
  #bindIp
  #绑定的端口
  port: 27117
sharding:
  #指定配置节点副本集
  configDB:
    myconfigrs/192.168.0.2:27019,192.168.0.2:27119,192.168.0.2:27219

/usr/local/mongodb/bin/mongos -f /mongodb/sharded_cluster/mymongos_27117/mongos.conf

# 使用mongo客户端登录27117,发现,第二个路由无需配置,因为分片配置都保存到了配置服务器中了。

清除所有的节点数据(备用)

如果在搭建分片的时候有操作失败或配置有问题,需要重新来过的,可以进行如下操作:

ps -ef |grep mongo
kill -2 进程编号

# 清除所有的节点的数据
rm -rf /mongodb/sharded_cluster/myconfigrs_27019/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myconfigrs_27119/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myconfigrs_27219/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myshardrs01_27018/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myshardrs01_27118/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myshardrs01_27218/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myshardrs02_27318/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myshardrs02_27418/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/myshardrs02_27518/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/mymongos_27017/data/db/*.* \ &
rm -rf /mongodb/sharded_cluster/mymongos_27117/data/db/*.*

/usr/local/mongodb/bin/mongod -f /mongodb/sharded_cluster/myshardrs01_27018/mongod.conf
/usr/local/mongodb/bin/mongod -f /mongodb/sharded_cluster/myshardrs01_27118/mongod.conf
/usr/local/mongodb/bin/mongod -f /mongodb/sharded_cluster/myshardrs01_27218/mongod.conf
/usr/local/mongodb/bin/mongod -f /mongodb/sharded_cluster/myshardrs02_27318/mongod.conf
/usr/local/mongodb/bin/mongod -f /mongodb/sharded_cluster/myshardrs02_27418/mongod.conf
/usr/local/mongodb/bin/mongod -f /mongodb/sharded_cluster/myshardrs02_27518/mongod.conf
/usr/local/mongodb/bin/mongod -f /mongodb/sharded_cluster/myconfigrs_27019/mongod.conf
/usr/local/mongodb/bin/mongod -f /mongodb/sharded_cluster/myconfigrs_27119/mongod.conf
/usr/local/mongodb/bin/mongod -f /mongodb/sharded_cluster/myconfigrs_27219/mongod.conf

安全认证

MongoDB的用户和角色权限简介

默认情况下,MongoDB实例启动运行时是没有启用用户访问权限控制的

为了强制开启用户访问控制(用户验证),则需要在MongoDB实例启动时使用选项 --auth 或在指定启动配置文件中添加选项 auth=true

常用的内置角色:

  • 数据库用户角色:read、readWrite;
  • 所有数据库用户角色:readAnyDatabase、readWriteAnyDatabase、userAdminAnyDatabase、dbAdminAnyDatabase
  • 数据库管理角色:dbAdmin、dbOwner、userAdmin;
  • 集群管理角色:clusterAdmin、clusterManager、clusterMonitor、hostManager;
  • 备份恢复角色:backup、restore;
  • 超级用户角色:root
  • 内部角色:system
角色说明:
角色 权限描述
read 可以读取指定数据库中任何数据。
readWrite 可以读写指定数据库中任何数据,包括创建、重命名、删除集合。
readAnyDatabase 可以读取所有数据库中任何数据(除了数据库config和local之外)。
readWriteAnyDatabase 可以读写所有数据库中任何数据(除了数据库config和local之外)。
userAdminAnyDatabase 可以在指定数据库创建和修改用户(除了数据库config和local之外)。
dbAdminAnyDatabase 可以读取任何数据库以及对数据库进行清理、修改、压缩、获取统计信息、执行检查等操作(除了数据库config和local之外)。
dbAdmin 可以读取指定数据库以及对数据库进行清理、修改、压缩、获取统计信息、执行检查等操作。
userAdmin 可以在指定数据库创建和修改用户。
clusterAdmin 可以对整个集群或数据库系统进行管理操作。
backup 备份MongoDB数据最小的权限。
restore 从备份文件中还原恢复MongoDB数据(除了system.profile集合)的权限。
root 超级账号,超级权限
# 查询所有角色权限(仅用户自定义角色)
db.runCommand({ rolesInfo: 1 })
# 查询所有角色权限(包含内置角色)
db.runCommand({ rolesInfo: 1, showBuiltinRoles: true })
# 查询当前数据库中的某角色的权限
db.runCommand({ rolesInfo: "<rolename>" })
db.runCommand({ rolesInfo: "root" })
# 查询其它数据库中指定的角色权限
db.runCommand({ rolesInfo: { role: "<rolename>", db: "<database>" } }
# 查询多个角色权限
db.runCommand(
    {
        rolesInfo: [
            "<rolename>",
            { role: "<rolename>", db: "<database>" },
            ...
        ]
    }
)

# 示例 查看所有内置角色
db.runCommand({ rolesInfo: 1, showBuiltinRoles: true })

添加用户和权限

###  未开启认证操作
# 切换到admin库
use admin

# 创建系统超级用户 myroot,设置密码123456,设置角色root
db.createUser({user:"myroot",pwd:"123456",roles:[ { "role" : "root", "db" :"admin" } ]})
# 或
db.createUser({user:"myroot",pwd:"123456",roles:["root"]})
Successfully added user: { "user" : "myroot", "roles" : [ "root" ] }

# 创建专门用来管理admin库的账号myadmin,只用来作为用户权限的管理
db.createUser({user:"myadmin",pwd:"123456",roles:[{role:"userAdminAnyDatabase",db:"admin"}]})

# 查看已经创建了的用户的情况:
db.system.users.find()

# 删除用户
db.dropUser("myadmin")
true
db.system.users.find()
# 修改密码
db.changeUserPassword("myroot", "123456")

# 创建普通用户
# 创建(切换)将来要操作的数据库articledb
use articledb

# 创建用户,拥有articledb数据库的读写权限readWrite,密码是123456
db.createUser({user: "bobo", pwd: "123456", roles: [{ role: "readWrite", db:"articledb" }]})
db.createUser({user: "bobo", pwd: "123456", roles: ["readWrite"]})

# 提示: 如果开启了认证后,登录的客户端的用户必须使用admin库的角色,如拥有root角色的myadmin用户,再通过myadmin用户去创建其他角色的用户
### 以开启认证的方式启动服务
# 有两种方式开启权限认证启动服务:一种是参数方式,一种是配置文件方式
# 参数方式
/usr/local/mongodb/bin/mongod -f /mongodb/single/mongod.conf --auth

# 配置文件方式
vim /mongodb/single/mongod.conf
security:
  #开启授权认证
  authorization: enabled

/usr/local/mongodb/bin/mongod -f /mongodb/single/mongod.conf

# 开启了认证的情况下的客户端登录
# 有两种认证方式,一种是先登录,在mongo shell中认证;一种是登录时直接认证

# 先连接再认证
/usr/local/mongodb/bin/mongo --host 180.76.159.126 --port 27017
use articledb
db.auth("bobo","123456")
db.comment.find()

# 连接时直接认证
/usr/local/mongodb/bin/mongo --host 192.168.0.2 --port 27017 --authenticationDatabase admin -u myroot -p 123456

数据修复

# 快速关闭方法(快速,简单,数据可能会出错)
#通过进程编号关闭节点
kill -2 54410

# 如果一旦是因为数据损坏,则需要进行如下操作(了解):
# 1 删除lock文件:
rm -f /mongodb/single/data/db/*.lock

# 2 修复数据:
/usr/local/mongodb/bin/mongod --repair --dbpath=/mongodb/single/data/db

# 标准的关闭方法
//客户端登录服务,注意,这里通过localhost登录,如果需要远程登录,必须先登录认证才行。
mongo --port 27017
//#切换到admin库
use admin
//关闭服务
db.shutdownServer()

副本集/分片集群认证

### 创建副本集认证的key文件
# 生成一个key文件到当前文件夹中。
# 可以使用任何方法生成密钥文件。例如,以下操作使用openssl生成密码文件,然后使用chmod来更改文件权限,仅为文件所有者提供读取权限
openssl rand -base64 90 -out ./mongo.keyfile
chmod 400 ./mongo.keyfile

# 提示:
# 所有副本集/分片集群节点都必须要用同一份keyfile,一般是在一台机器上生成,然后拷贝到其他机器上,且必须有读的权限,否则将来会报错

# 修改配置文件指定keyfile
security:
    #KeyFile鉴权文件
    keyFile: /mongodb/replica_sets/myrs_27017/mongo.keyfile
    #开启认证方式运行
    authorization: enabled

# 重新启动副本集/分片集群