跳至主要內容

《极客时间教程 - MongoDB 高手课》笔记

钝悟...大约 24 分钟笔记数据库数据库文档数据库MongoDB

《极客时间教程 - MongoDB 高手课》笔记

第一章:MongoDB 再入门

MongoDB 简介

什么是 MongoDB?

一个以 JSON 为数据模型的文档数据库。

为什么叫文档数据库?

文档来自于“JSON Document”,并非我们一般理解的 PDF,WORD 文档。

谁开发 MongDB?

上市公司 MongoDB Inc. ,总部位于美国纽约。

主要用途

  • 应用数据库,类似于 Oracle, MySQL
  • 海量数据处理,数据平台。

主要特点

  • 建模为可选

  • JSON 数据模型比较适合开发者

  • 横向扩展可以支撑很大数据量和并发

MongoDB 是免费的吗?

MongoDB 有两个发布版本:社区版和企业版。

  • 社区版是基于 SSPL,一种和 AGPL 基本类似的开源协议 。
  • 企业版是基于商业协议,需付费使用。

MongoDB vs. RDBMS

MongoDBRDBMS
数据模型文档模型关系模型
数据库类型OLTPOLTP
CRUD 操作MQL/SQLSQL
高可用复制集集群模式
横向扩展能力通过原生分片完善支持数据分区或者应用侵入式
索引支持B-树、全文索引、地理位置索引、多键 (multikey) 索引、TTL 索引B 树
开发难度容易困难
数据容量没有理论上限千万、亿
扩展方式垂直扩展+水平扩展垂直扩展

MongoDB 特色及优势

文档模型的面向对象特点

灵活:快速响应业务变化

  • 多形性:同一个集合中可以包含 不同字段(类型)的文档对象
  • 动态性:线上修改数据模式,修 改是应用与数据库均无须下线
  • 数据治理:支持使用 JSON Schema 来规范数据模式。在保证模式灵活动态的前提下,提供数据治理能力文档模型的快速开发特点

快速:最简单快速的开发方式

  • 数据库引擎只需要在一个存储区读写
  • 反范式、无关联的组织极大优化查询速度
  • 程序 API 自然,开发快速

MongoDB 优势

  • 原生的高可用和横向扩展能力
    • Replica Set – 2 to 50 个成员
    • 自恢复
    • 多中心容灾能力
    • 滚动服务 – 最小化服务终端
  • 横向扩展能力
    • 需要的时候无缝扩展
    • 应用全透明
    • 多种数据分布策略
    • 轻松支持 TB – PB 数量级

MongoDB 技术优势总结

  • JSON 结构和对象模型接近,开发代码量低
  • JSON 的动态模型意味着更容易响应新的业务需求
  • 复制集提供 99.999% 高可用
  • 分片架构支持海量数据和无缝扩容

MongoDB 基本操作

使用 insert 完成插入操作

操作格式:

db.<集合>.insertOne(<JSON 对象>)
db.<集合>.insertMany([<JSON 1>, <JSON 2>, …<JSON n>])

示例:

db.fruit.insertOne({name: "apple"})
db.fruit.insertMany([
    {name: "apple"},
    {name: "pear"},
    {name: "orange"}
])

使用 find 查询文档

find 是 MongoDB 中查询数据的基本指令,相当于 SQL 中的 SELECT 。

find 返回的是游标。

示例:

db.movies.find( { "year" : 1975 } ) //单条件查询

db.movies.find( { "year" : 1989, "title" : "Batman" } ) //多条件 and 查询

db.movies.find( { $and : [ {"title" : "Batman"}, { "category" : "action" }] } ) // and 的另一种形式

db.movies.find( { $or: [{"year" : 1989}, {"title" : "Batman"}] } ) //多条件 or 查询

db.movies.find( { "title" : /^B/} ) //按正则表达式查找
查询条件对照表
SQLMQL
a = 1{a: 1}
a <> 1{a: {$ne: 1}}
a > 1{a: {$gt: 1}}
a >= 1{a: {$gte: 1}}
a < 1{a: {$lt: 1}}
a <= 1{a: {$lte: 1}}
查询逻辑对照表
SQLMQL
a = 1 AND b = 1{a: 1, b: 1}{$and: [{a: 1}, {b: 1}]}
a = 1 OR b = 1{$or: [{a: 1}, {b: 1}]}
a IS NULL{a: {$exists: false}}
a IN (1, 2, 3){a: {$in: [1, 2, 3]}}
查询逻辑运算符
  • $lt - 存在并小于
  • $lte - 存在并小于等于
  • $gt - 存在并大于
  • $gte - 存在并大于等于
  • $ne - 不存在或存在但不等于
  • $in - 存在并在指定数组中
  • $nin - 不存在或不在指定数组中
  • $or - 匹配两个或多个条件中的一个
  • $and - 匹配全部条件

使用 find 搜索子文档

find 支持使用“field.sub_field”的形式查询子文档。假设有一个文档:

db.fruit.insertOne({
    name: "apple",
    from: {
        country: "China",
        province: "Guangdon"
    }
})
db.fruit.find( { "from.country" : "China" } )
db.fruit.find( { "from" : {country: "China"} } )

使用 find 搜索数组

find 支持对数组中的元素进行搜索。

db.fruit.insert([
    { "name" : "Apple", color: ["red", "green" ] },
    { "name" : "Mango", color: ["yellow", "green"] }
])

db.fruit.find({color: "red"})
db.fruit.find({$or: [{color: "red"}, {color: "yellow"}]} )

使用 find 搜索数组中的对象

db.movies.insertOne( {
    "title" : "Raiders of the Lost Ark",
    "filming_locations" : [
        { "city" : "Los Angeles", "state" : "CA", "country" : "USA" },
        { "city" : "Rome", "state" : "Lazio", "country" : "Italy" },
        { "city" : "Florence", "state" : "SC", "country" : "USA" }
    ]
})
// 查找城市是 Rome 的记录
db.movies.find({"filming_locations.city": "Rome"})

在数组中搜索子对象的多个字段时,如果使用 $elemMatch,它表示必须是同一个 子对象满足多个条件。考虑以下两个查询:

db.getCollection('movies').find({
    "filming_locations.city": "Rome",
    "filming_locations.country": "USA"
})

db.getCollection('movies').find({
    "filming_locations": {
    	$elemMatch:{"city":"Rome", "country": "USA"}
    }
})

控制 find 返回的字段

  • find 可以指定只返回指定的字段;
  • _id字段必须明确指明不返回,否则默认返回;
  • 在 MongoDB 中我们称这为投影(projection);
  • db.movies.find({"category": "action"},{"_id":0, title:1})

使用 remove 删除文档

remove 命令需要配合查询条件使用;

匹配查询条件的的文档会被删除;

指定一个空文档条件会删除所有文档;

示例:

db.testcol.remove( { a : 1 } ) // 删除 a 等于 1 的记录
db.testcol.remove( { a : { $lt : 5 } } ) // 删除 a 小于 5 的记录
db.testcol.remove( { } ) // 删除所有记录
db.testcol.remove() //报错

使用 update 更新文档

Update 操作执行格式:db.<集合>.update(<查询条件>, <更新字段>)

示例:

db.fruit.insertMany([
    {name: "apple"},
    {name: "pear"},
    {name: "orange"}
])

db.fruit.updateOne({name: "apple"}, {$set: {from: "China"}})

使用 updateOne 表示无论条件匹配多少条记录,始终只更新第一条;

使用 updateMany 表示条件匹配多少条就更新多少条;

updateOne/updateMany 方法要求更新条件部分必须具有以下之一,否则将报错:

  • $set/$unset

  • $push/$pushAll/$pop

  • $pull/$pullAll

  • $addToSet

使用 update 更新数组

  • $push: 增加一个对象到数组底部
  • $pushAll: 增加多个对象到数组底部
  • $pop: 从数组底部删除一个对象
  • $pull: 如果匹配指定的值,从数组中删除相应的对象
  • $pullAll: 如果匹配任意的值,从数据中删除相应的对象
  • $addToSet: 如果不存在则增加一个值到数组

使用 drop 删除集合

使用 db.<集合>.drop() 来删除一个集合

集合中的全部文档都会被删除

集合相关的索引也会被删除

db.collection.drop()

使用 dropDatabase 删除数据库

使用 db.dropDatabase() 来删除数据库

数据库相应文件也会被删除,磁盘空间将被释放

use tempDB
db.dropDatabase()
show collections // No collections
show dbs // The db is gone

聚合查詢

什么是 MongoDB 聚合框架

MongoDB 聚合框架(Aggregation Framework)是一个计算框架,它可以:

  • 作用在一个或几个集合上;

  • 对集合中的数据进行的一系列运算;

  • 将这些数据转化为期望的形式;

从效果而言,聚合框架相当于 SQL 查询中的:

  • GROUP BY

  • LEFT OUTER JOIN

  • AS 等

管道(Pipeline)和步骤(Stage)

整个聚合运算过程称为管道(Pipeline),它是由多个步骤(Stage)组成的, 每个管道:

  • 接受一系列文档(原始数据);
  • 每个步骤对这些文档进行一系列运算;
  • 结果文档输出给下一个步骤;

聚合计算的基本格式:

pipeline = [$stage1, $stage2, ...$stageN];

db.<COLLECTION>.aggregate(
    pipeline,
    { options }
);

常见步骤:

步骤作用SQL 等价运算符
$match过滤WHERE
$project投影AS
$sort排序ORDER BY
$group分组GROUP BY
$skip / $limit结果限制SKIP / LIMIT
$lookup左外连接LEFT OUTER JOIN
$unwind展开数组N/A
$graphLookup图搜索N/A
$facet / $bucket分面搜索N/A

常见步骤中的运算符

$match$project$group
$eq/$gt/$gte/$lt/$lte
$and/$or/$not/$in
$geoWithin/$intersect
选择需要的或排除不需要的字段
$map/$reduce/$filter
$range
$multiply/$divide/$substract/$add
$year/$month/$dayOfMonth/$hour/$minute/$second
……
$sum/$avg
$push/$addToSet
$first/$last/$max/$min
……

聚合运算的使用场景

聚合查询可以用于 OLAP 和 OLTP 场景。例如:

  • OTLP - 计算
  • OLAP
    • 分析一段时间内的销售总额、均值
    • 计算一段时间内的净利润
    • 分析购买人的年龄分布
    • 分析学生成绩分布
    • 统计员工绩效

MQL 常用步骤与 SQL 对比

【示例一】

SELECT
FIRST_NAME AS ``,
LAST_NAME AS ``
FROM Users
WHERE GENDER = '男'
SKIP 100
LIMIT 20

等价于

db.users.aggregate([
    {$match: {gender: ’’男”}},
    {$skip: 100},
    {$limit: 20},
    {$project: {
        '名': '$first_name',
        '姓': '$last_name'
    }}
]);

【示例二】

SELECT DEPARTMENT,
COUNT(NULL) AS EMP_QTY
FROM Users
WHERE GENDER = '女'
GROUP BY DEPARTMENT HAVING
COUNT(*) < 10

等价于

db.users.aggregate([
    {$match: {gender: '女'}},
    {$group: {
        _id: '$DEPARTMENT’,
        emp_qty: {$sum: 1}
    }},
    {$match: {emp_qty: {$lt: 10}}}
]);

【示例三】

> db.students.findOne()
{
    name:'张三',
    score:[
        {subject:'语文',score:84},
        {subject:'数学',score:90},
        {subject:'外语',score:69}
    ]
}

> db.students.aggregate([{$unwind: '$score'}])
{name: '张三', score: {subject: '语文', score: 84}}
{name: '张三', score: {subject: '数学', score: 90}}
{name: '张三', score: {subject: '外语', score: 69}}

MQL 特有步骤 $bucket

db.products.aggregate([{
    $bucket:{
        groupBy: "$price",
        boundaries: [0,10,20,30,40],
        default: "Other",
        output:{"count":{$sum:1}}
    }
}])

MQL 特有步骤 $facet

db.products.aggregate([{
    $facet:{
        price:{
            $bucket:{}
        },
        year:{
            $bucket:{}
        }
    }
}])

聚合查询实验

计算到目前为止的所有订单的总销售额

db.orders.aggregate([
	{ $group:
		{
			_id: null,
			total: { $sum: "$total" }
		}
	}
])

// 结果: // { "_id" : null, "total" : NumberDecimal("44019609") }

查询 2019 年第一季度(1 月 1 日~3 月 31 日)已完成订单(completed)的订单总金额和订单总数

db.orders.aggregate([

    // 步骤 1:匹配条件
    { $match: { status: "completed", orderDate: {
                                    $gte: ISODate("2019-01-01"),
                                    $lt: ISODate("2019-04-01") } } },

    // 步骤二:聚合订单总金额、总运费、总数量
    { $group: {
                _id: null,
                total: { $sum: "$total" },
                shippingFee: { $sum: "$shippingFee" },
                count: { $sum: 1 } } },
    { $project: {
                // 计算总金额
                grandTotal: { $add: ["$total", "$shippingFee"] },
                count: 1,
                _id: 0 } }
])

// 结果:
// { "count" : 5875, "grandTotal" : NumberDecimal("2636376.00") }

复制集机制及原理

复制集的作用

MongoDB 复制集的主要意义在于实现服务高可用

它的现实依赖于两个方面的功能:

  • 数据写入时将数据迅速复制到另一个独立节点上
  • 在接受写入的节点发生故障时自动选举出一个新的替代节点

在实现高可用的同时,复制集实现了其他几个附加作用:

  • 数据分发:将数据从一个区域复制到另一个区域,减少另一个区域的读延迟

  • 读写分离:不同类型的压力分别在不同的节点上执行

  • 异地容灾:在数据中心故障时候快速切换到异地

典型复制集结构

一个典型的复制集由 3 个以上具有投票权的节点组成,包括:

  • 一个主节点(PRIMARY):接受写入操作和选举时投票
  • 两个(或多个)从节点(SECONDARY):复制主节点上的新数据和选举时投票
  • 不推荐使用 Arbiter(投票节点)

数据是如何复制的?

当一个修改操作,无论是插入、更新或删除,到达主节点时,它对数据的操作将被 记录下来(经过一些必要的转换),这些记录称为 oplog。

从节点通过在主节点上打开一个 tailable 游标不断获取新进入主节点的 oplog,并 在自己的数据上回放,以此保持跟主节点的数据一致。

通过选举完成故障恢复

  • 具有投票权的节点之间两两互相发送心跳;

  • 当 5 次心跳未收到时判断为节点失联;

  • 如果失联的是主节点,从节点会发起选举,选出新的主节点;

  • 如果失联的是从节点则不会产生新的选举;

  • 选举基于 RAFT 一致性算法 实现,选举成功的必要条件是大多数投票节点存活;

  • 复制集中最多可以有 50 个节点,但具有投票权的节点最多 7 个。

影响选举的因素

整个集群必须有大多数节点(N / 2 + 1)存活;

被选举为主节点的节点必须:

  • 能够与多数节点建立连接
  • 具有较新的 oplog
  • 具有较高的优先级(如果有配置)

常见选项

复制集节点有以下常见的选配项:

  • 是否具有投票权(v 参数):有则参与投票;
  • 优先级(priority 参数):优先级越高的节点越优先成为主节点。优先级为 0 的节点无法成 为主节点;
  • 隐藏(hidden 参数):复制数据,但对应用不可见。隐藏节点可以具有投票仅,但优先 级必须为 0;
  • 延迟(slaveDelay 参数):复制 n 秒之前的数据,保持与主节点的时间差。

复制集注意事项

关于硬件:

  • 因为正常的复制集节点都有可能成为主节点,它们的地位是一样的,因此硬件配置上必须一致;
  • 为了保证节点不会同时宕机,各节点使用的硬件必须具有独立性。

关于软件:

  • 复制集各节点软件版本必须一致,以避免出现不可预知的问题。

增加节点不会增加系统写性能!

MongoDB 全家桶

软件模块描述
mongodMongoDB 数据库软件
mongoMongoDB 命令行工具,管理 MongoDB 数据库
mongosMongoDB 路由进程,分片环境下使用
mongodump / mongorestore命令行数据库备份与恢复工具
mongoexport / mongoimportCSV/JSON 导入与导出,主要用于不同系统间数据迁移
CompassMongoDB GUI 管理工具
Ops Manager(企业版)MongoDB 集群管理软件
BI Connector(企业版)SQL 解释器 / BI 套接件
MongoDB Charts(企业版)MongoDB 可视化软件
Atlas(付费及免费)MongoDB 云托管服务,包括永久免费云数据库

第二章:从熟练到精通的开发之路

模型设计基础

数据模型

什么是数据模型?

数据模型是一组由符号、文本组成的集合,用以准确表达信息,达到有效交流、沟通 的目的。

数据模型设计的元素

实体 Entity

  • 描述业务的主要数据集合

  • 谁,什么,何时,何地,为何,如何

属性 Attribute

  • 描述实体里面的单个信息

关系 Relationship

  • 描述实体与实体之间的数据规则

  • 结构规则:1-N, N-1, N-N

  • 引用规则:电话号码不能单独存在

数据模型的三层深度:

  • 概念模型,逻辑模型,物理模型
  • 一个模型逐步细化的过程

MongoDB 文档模型设计的三个误区

  1. 不需要模型设计
  2. MongoDB 应该用一个超级大文档来组织所有数据
  3. MongoDB 不支持关联或者事务

关于 JSON 文档模型设计

文档模型设计处于是物理模型设计阶段 (PDM)

JSON 文档模型通过内嵌数组或引用字段来表示关系

文档模型设计不遵从第三范式,允许冗余。

为什么人们都说 MongoDB 是无模式?

MongoDB 同样需要概念/逻辑建模

文档模型设计的物理层结构可以和逻辑层类似

MongoDB 无模式由来: 可以省略物理建模的具体过程

关系模型 vs 文档模型

关系数据库JSON 文档模型
模型设计层次概念模型
逻辑模型
物理模型
概念模型
逻辑模型
模型实体集合
模型属性字段
模型关系关联关系,主外键内嵌数组,引用字段

文档模型设计之一:基础设计

建立基础文档模型

  • 根据概念模型或者业务需求推导出逻辑模型 – 找到对象
  • 列出实体之间的关系(及基数) - 明确关系
  • 套用逻辑设计原则来决定内嵌方式 – 进行建模
  • 完成基础模型构建

基础建模小结

  • 90:10 规则: 大部分时候你会使用内嵌来表示 1-1,1-N,N-N
  • 内嵌类似于预先聚合(关联)
  • 内嵌后对读操作通常有优势(减少关联)

文档模型设计之二:工况细化

场景梳理:

  • 最频繁的数据查询模式

  • 最常用的查询参数

  • 最频繁的数据写入模式

  • 读写操作的比例

  • 数据量的大小

基于内嵌的文档模型

根据业务需求

  • 使用引用来避免性能瓶颈
  • 使用冗余来优化访问性能

什么时候该使用引用方式?

  • 内嵌文档太大,数 MB 或者超过 16MB
  • 内嵌文档或数组元素会频繁修改
  • 内嵌数组元素会持续增长并且没有封顶

MongoDB 引用设计的限制

  • MongoDB 对使用引用的集合之间并无主外键检查
  • MongoDB 使用聚合框架的 $lookup 来模仿关联查询
  • $lookup 只支持 left outer join
  • $lookup 的关联目标(from)不能是分片表

文档模型设计之三:模式套用

  • 利用文档内嵌数组,将一个时间段的数据聚合到一个文档里。

  • 大量减少文档数量

  • 大量减少索引占用空间

设计模式集锦

大文档,很多字段,很多索引

列转行

模型灵活了,如何管理文档不同版本?

  • 增加一个版本号字段
  • 快速过滤掉不需要升级的文档
  • 升级时候对不同版本的文档做 不同的处理

统计网页点击流量

  • 用近似计算

业绩排名,游戏排名,商品统计等精确统计

  • 用预聚合字段
  • 模型中直接增加统计字段
  • 每次更新数据时候同时更新统计值

事务开发:写操作事务

writeConcern 决定一个写操作落到多少个节点上才算成功。writeConcern 的取值包括:

  • 0:发起写操作,不关心是否成功;

  • 1~集群最大数据节点数:写操作需要被复制到指定节点数才算成功;

  • majority:写操作需要被复制到大多数节点上才算成功。

发起写操作的程序将阻塞到写操作到达指定的节点数为止。

writeConcern 可以决定写操作到达多少个节点才算成功,journal 则定义如何才算成 功。取值包括:

  • true: 写操作落到 journal 文件中才算成功;
  • false: 写操作到达内存即算作成功。

事务开发:读操作事务之一

在读取数据的过程中我们需要关注以下两个问题:

从哪里读?——由 readPreference 来解决

什么样的数据可以读? ——由 readConcern 来解决

什么是 readPreference?

readPreference 决定使用哪一个节点来满足 正在发起的读请求。可选值包括:

  • primary: 只选择主节点;
  • primaryPreferred:优先选择主节点,如 果不可用则选择从节点;
  • secondary:只选择从节点;
  • secondaryPreferred:优先选择从节点, 如果从节点不可用则选择主节点;
  • nearest:选择最近的节点;

readPreference 场景举例

用户下订单后马上将用户转到订单详情页——primary/primaryPreferred。因为此时从节点可能还没复制到新订单;

用户查询自己下过的订单——secondary/secondaryPreferred。查询历史订单对时效性通常没有太高要求;

生成报表——secondary。报表对时效性要求不高,但资源需求大,可以在从节点单独处理,避免对线上用户造成影响;

将用户上传的图片分发到全世界,让各地用户能够就近读取——nearest。每个地区的应用选择最近的节点读取数据。

readPreference 与 Tag

readPreference 只能控制使用一类节点。Tag 则可以将节点选择控制
到一个或几个节点。考虑以下场景:

  • 一个 5 个节点的复制集;

  • 3 个节点硬件较好,专用于服务线上客户;

  • 2 个节点硬件较差,专用于生成报表;

可以使用 Tag 来达到这样的控制目的:

  • 为 3 个较好的节点打上 {purpose: "online"};

  • 为 2 个较差的节点打上 {purpose: "analyse"};

  • 在线应用读取时指定 online,报表读取时指定 reporting。

注意事项

  • 指定 readPreference 时也应注意高可用问题。例如将 readPreference 指定 primary,则发生故障转移不存在 primary 期间将没有节点可读。如果业务允许,则应选择 primaryPreferred;

  • 使用 Tag 时也会遇到同样的问题,如果只有一个节点拥有一个特定 Tag,则在这个节点失效时将无节点可读。这在有时候是期望的结果,有时候不是。例如:

    • 如果报表使用的节点失效,即使不生成报表,通常也不希望将报表负载转移到其他节点上,此时只有一个节点有报表 Tag 是合理的选择;
    • 如果线上节点失效,通常希望有替代节点,所以应该保持多个节点有同样的 Tag;
  • Tag 有时需要与优先级、选举权综合考虑。例如做报表的节点通常不会希望它成为主节点,则优先级应为 0。

事务开发:读操作事务之二

什么是 readConcern?

在 readPreference 选择了指定的节点后,readConcern 决定这个节点上的数据哪些 是可读的,类似于关系数据库的隔离级别。可选值包括:

  • available:读取所有可用的数据;
  • local:读取所有可用且属于当前分片的数据,默认设置;
  • majority:读取在大多数节点上提交完成的数据;
  • linearizable:可线性化读取文档;增强处理 majority 情况下主节点失联时候的例外情况
  • snapshot:读取最近快照中的数据;最高隔离级别,接近于 Seriazable

readConcern: local 和 available

在复制集中 local 和 available 是没有区别的。两者的区别主要体现在分片集上。考虑以下场景:

  • 一个 chunk x 正在从 shard1 向 shard2 迁移;

  • 整个迁移过程中 chunk x 中的部分数据会在 shard1 和 shard2 中同时存在,但源分片 shard1 仍然是 chunk x 的负责方:

    • 所有对 chunk x 的读写操作仍然进入 shard1;
    • config 中记录的信息 chunk x 仍然属于 shard1;
  • 此时如果读 shard2,则会体现出 local 和 available 的区别:

    • local:只取应该由 shard2 负责的数据(不包括 x);
    • available:shard2 上有什么就读什么(包括 x);

注意事项:

  • 虽然看上去总是应该选择 local,但毕竟对结果集进行过滤会造成额外消耗。在一些 无关紧要的场景(例如统计)下,也可以考虑 available;
  • MongoDB <=3.6 不支持对从节点使用 {readConcern: "local"};
  • 从主节点读取数据时默认 readConcern 是 local,从从节点读取数据时默认 readConcern 是 available(向前兼容原因)。

readConcern: majority

只读取大多数据节点上都提交了的数据。考虑如 下场景:

  • 集合中原有文档 {x: 0};
  • 将 x 值更新为 1;

如果在各节点上应用 {readConcern: “majority”} 来读取数据:

如何实现?

节点上维护多个 x 版本,MVCC 机制 MongoDB 通过维护多个快照来链接不同的版本:

  • 每个被大多数节点确认过的版本都将是一个快照;
  • 快照持续到没有人使用为止才被删除;

readConcern: majority 与脏读

MongoDB 中的回滚:

  • 写操作到达大多数节点之前都是不安全的,一旦主节点崩溃,而从节还没复制到该次操作,刚才的写操作就丢失了;

  • 把一次写操作视为一个事务,从事务的角度,可以认为事务被回滚了。

所以从分布式系统的角度来看,事务的提交被提升到了分布式集群的多个节点级别的“提交”,而不再是单个节点上的“提交”。

在可能发生回滚的前提下考虑脏读问题:

  • 如果在一次写操作到达大多数节点前读取了这个写操作,然后因为系统故障该操作回滚了,则发生了脏读问题;

使用 {readConcern: “majority”} 可以有效避免脏读

readConcern: 如何实现安全的读写分离

考虑如下场景:

向主节点写入一条数据;

立即从从节点读取这条数据。

如何保证自己能够读到刚刚写入的数据?

下述方式有可能读不到刚写入的订单

db.orders.insert({ oid: 101, sku: ”kite", q: 1})
db.orders.find({oid:101}).readPref("secondary")

使用 writeConcern + readConcern majority 来解决

db.orders.insert({ oid: 101, sku: "kiteboar", q: 1}, {writeConcern:{w: "majority”}})
db.orders.find({oid:101}).readPref(“secondary”).readConcern("majority")

readConcern: linearizable

只读取大多数节点确认过的数据。和 majority 最大差别是保证绝对的操作线性顺序 –在写操作自然时间后面的发生的读,一定可以读到之前的写

  • 只对读取单个文档时有效;
  • 可能导致非常慢的读,因此总是建议配合使用 maxTimeMS;

readConcern: snapshot

{readConcern: “snapshot”} 只在多文档事务中生效。将一个事务的 readConcern 设置为 snapshot,将保证在事务中的读:

  • 不出现脏读;

  • 不出现不可重复读;

  • 不出现幻读。

因为所有的读都将使用同一个快照,直到事务提交为止该快照才被释放。

事务开发:多文档事务

MongoDB 虽然已经在 4.2 开始全面支持了多文档事务,但并不代表大家应该毫无节制 地使用它。相反,对事务的使用原则应该是:能不用尽量不用。

通过合理地设计文档模型,可以规避绝大部分使用事务的必要性

为什么?事务 = 锁,节点协调,额外开销,性能影响

MongoDB ACID 多文档事务支持

  • Atomocity 原子性
    • 单表单文档 : 1.x 就支持
    • 复制集多表多行:4.0 复制集
    • 分片集群多表多行 4.2
  • Consistency 一致性 - writeConcern, readConcern (3.2)
  • Isolation 隔离性 - readConcern (3.2)
  • Durability 持久性 - Journal and Replication

事务的隔离级别

事务完成前,事务外的操作对该事务所做的修改不可访问

如果事务内使用 {readConcern: “snapshot”},则可以达到可重复读 Repeatable Read

事务写机制

MongoDB 的事务错误处理机制不同于关系数据库:

  • 当一个事务开始后,如果事务要修改的文档在事务外部被修改过,则事务修改这个文档时会触发 Abort 错误,因为此时的修改冲突了;

  • 这种情况下,只需要简单地重做事务就可以了;

  • 如果一个事务已经开始修改一个文档,在事务以外尝试修改同一个文档,则事务以外的修改会等待事务完成才能继续进行(write-wait.mdopen in new window 实验)。

Change Stream

Change Stream 是 MongoDB 用于实现变更追踪的解决方案,类似于关系数据库的触 发器,但原理不完全相同:

Change Stream触发器
触发方式异步同步(事务保证)
触发位置应用回调事件数据库触发器
触发次数每个订阅事件的客户端1 次(触发器)
故障恢复从上次断点重新触发事务回滚

Change Stream 的实现原理

Change Stream 是基于 oplog 实现的。它在 oplog 上开启一个 tailable cursor 来追踪所有复制集上的变更操作,最终调用应用中定义的回调函数。

被追踪的变更事件主要包括:

  • insert/update/delete:插入、更新、删除;

  • drop:集合被删除;

  • rename:集合被重命名;

  • dropDatabase:数据库被删除;

  • invalidate:drop/rename/dropDatabase 将导致 invalidate 被触发,并关闭 change stream;

Change Stream 只推送已经在大多数节点上提交的变更操作。即“可重复读”的变更。 这个验证是通过 {readConcern: “majority”} 实现的。因此:

  • 未开启 majority readConcern 的集群无法使用 Change Stream;
  • 当集群无法满足 {w: “majority”} 时,不会触发 Change Stream(例如 PSA 架构 中的 S 因故障宕机)。

Change Stream 使用场景

  • 跨集群的变更复制——在源集群中订阅 Change Stream,一旦得到任何变更立即写入目标集群。

  • 微服务联动——当一个微服务变更数据库时,其他微服务得到通知并做出相应的变更。

  • 其他任何需要系统联动的场景。

注意事项

  • Change Stream 依赖于 oplog,因此中断时间不可超过 oplog 回收的最大时间窗;

  • 在执行 update 操作时,如果只更新了部分数据,那么 Change Stream 通知的也
    是增量部分;

  • 同理,删除数据时通知的仅是删除数据的 _id

第三章:分片集群与高级运维之道

第四章:企业架构师进阶之法

参考资料

评论
  • 按正序
  • 按倒序
  • 按热度
Powered by Waline v2.15.7