MongoDB 是目前最流行的文档型数据库。MongoDB 的采用类 json 的存储格式对开发者来说非常友好。本文梳理了 MongoDB 索引的底层结构以及使用经验,不足之处欢迎大家指正。
MongoDB 提供范围广泛的索引类型和功能以及特定于语言的排序顺序,以支持对数据的复杂访问模式。 MongoDB 索引可以按需创建和删除来适应不断变化的应用程序需求和查询模式,并且可以在文档中的任何字段上声明,包括嵌套在数组中的字段。本文介绍一下 MongoDB 中的索引底层结构、索引遍历过程、建索引以及如何使用。
MongoDB 中的索引与其他数据库系统中的索引类似。 MongoDB 在集合级别定义索引,并支持 MongoDB 集合中文档的任何字段或子字段的索引。 常见的有以下类型: 键索引、复合索引、多键索引、地理空间索引、全文本索引和哈希索引。
`db.collection.createIndex(keys, options)`
语法中 Key 值为你要创建的索引字段,1 为指定按升序创建索引,如果你想按降序来创建索引指定为 -1 即可。
`db.col.createIndex({"a":1})`
createIndex() 方法中你也可以设置使用多个字段创建索引(关系型数据库中称作复合索引)。
db.col.createIndex({"a":1,"b":-1})
db.collection.dropIndex
删除索引在底层直接删除文件,然后修改元数据
db.collection.hideIndex(<index>)
在删除索引前,可以先隐藏索引,查看集群是否异常后,才真正删除索引, 可有效帮助业务判断索引是否可以删除。
MongoDB 底层是如何存储数据的,一个 collection 一个文件吗?索引在底层是如何组织的? 一个 collection 对应到底层存储引擎就是一个文件,另外每个索引也是单独的文件,每个数据和索引文件的默认结构是 b 树,用户建表的时候也可以指定 lsm 结构,不过绝大多数用户基本都是使用 b 树结构,本文的讨论主要围绕 b 树这种结构来进行。
比如用户建一个普通的表,默认会带一个_id 索引,会产生俩个文件,一个文件存放数据,一个存放_id 索引,这俩个文件通过 RecordId 来连接,用户每插入一条数据,mongo 会生成一条与之对应的自增的 RecordId, 不过用户不感知,RecordId 是与 mysql 中的自增主键类似。数据文件是 RecordId 到数据的映射, _id 索引文件是_id 到 RecordId 的映射,如果通过指定_id 查询,会现在_id 索引文件中找到 RecordId, 然后再到数据文件中查询数据,如果用户再新建索引,那么在 wt 就会再新建一个文件,同样按 b 树组织,该文件记录了索引到 RecordId 的映射,用户使用索引查询时,同样的如同_id 索引,先找到 RecordId, 然后再到数据文件中查询数据。
可以通过以下方式查找数据对应的RecordId
PRIMARY> db.coll.find().showRecordId()
{ "_id" : ObjectId("647861f72b531acaacf4afb2"), "a" : 1, "b" : 1, "$recordId" : NumberLong(1) }
{ "_id" : ObjectId("647861fa2b531acaacf4afb3"), "a" : 1, "b" : 2, "$recordId" : NumberLong(2) }
在 MongoDB 的 Schema-free 架构下,索引字段可以存储不同类型的值,在索引 b 树中,有个基本的问题,实现不同类型的比较呢? MongoDB 通过 BSON 结构来存储数据,具体结构的解析可见BSON 结构解析 ,并且规定了不同类型之间的大小关系。
1. MinKey (internal type)
2. Null
3. Numbers (ints, longs, doubles, decimals)
4. Symbol, String
5. Object
6. Array
7. BinData
8. ObjectId
9. Boolean
10. Date
11. Timestamp
12. Regular Expression
13. MaxKey (internal type)
在这个限制下, 就只需要对比同种类型的大小了,BSON 的基本比较流程如下:先比较类型,如果类型一样才使用 BSONElement::compareElements 比较值。
但是对于索引如果直接使用上述方法去做大小比较,具有以下的俩个缺点:
在 MongoDB 中设计了 KeyString 结构,将所有类型可以归一化为 string, 然后使用 memcmp 进行二进制比较。 KeyString 的组成方式为:
`字段1类型 + 字段1二进制 + 字段2类型 + 字段2二进制 + ... + <discriminator> + 结尾标识符(0x04) + <recordId>`
那 KeyString 是怎么转的呢?类型之间有大小关系,那么 keystring 的前几个字节必定与类型相关,实际上使用第一个字节来存储类型, 相关类型定义如下:
const uint8_t kMinKey = 10;
const uint8_t kUndefined = 15;
const uint8_t kNullish = 20;
const uint8_t kNumeric = 30;
const uint8_t kStringLike = 60;
const uint8_t kObject = 70;
const uint8_t kArray = 80;
const uint8_t kBinData = 90;
const uint8_t kOID = 100;
const uint8_t kBool = 110;
const uint8_t kDate = 120;
const uint8_t kTimestamp = 130;
const uint8_t kRegEx = 140;
const uint8_t kDBRef = 150;
const uint8_t kCode = 160;
const uint8_t kCodeWithScope = 170;
const uint8_t kMaxKey = 240;
下面通过常用的字符串以及数字类型来举例说明, 如一条文档{a:"abcd"} ,索引为{a:1}, 生成的 keystring 为:
各个字段的含义为:
ks("abcd") + kEnd = 60 97 98 99 100 0 4
如果一条文档{a:"abcd", b:"a" } ,索引为{a:1,b:1}, 那么生成的 keystring 为:
再看下整数类型: {a:"NumberInt(1)}, 对应的 KeyString 为:
与 string 类型相比 43 要比 60 要小, 所以不同类型可以通过第一个字节快速比较大小。 同样的 4 表示结束符, 43 表示类型, 2 表示 value, 这里有俩个问题 1) 为什么不使用类型值不是 kNumeric=30 呢? 2) value 为什么不是 1, 而是 2 呢? 带着以上问题,接下来详细分析下最复杂的数值类型转换。
数字类型比较是最复杂的方法,个整性数可以大端存储然后对比大小,但是涉及到实现整性数和浮点数的比较问题就复杂了。 为了解决上述问题, 按照数字所需要占用字节的大小和正负划分了 22 种数字类型, 如下:
const uint8_t kNumericNaN = kNumeric + 0;
const uint8_t kNumericNegativeLargeMagnitude = kNumeric + 1; // <= -2**63 including -Inf
const uint8_t kNumericNegative8ByteInt = kNumeric + 2;
const uint8_t kNumericNegative7ByteInt = kNumeric + 3;
const uint8_t kNumericNegative6ByteInt = kNumeric + 4;
const uint8_t kNumericNegative5ByteInt = kNumeric + 5;
const uint8_t kNumericNegative4ByteInt = kNumeric + 6;
const uint8_t kNumericNegative3ByteInt = kNumeric + 7;
const uint8_t kNumericNegative2ByteInt = kNumeric + 8;
const uint8_t kNumericNegative1ByteInt = kNumeric + 9;
const uint8_t kNumericNegativeSmallMagnitude = kNumeric + 10; // between 0 and -1 exclusive
const uint8_t kNumericZero = kNumeric + 11;
const uint8_t kNumericPositiveSmallMagnitude = kNumeric + 12; // between 0 and 1 exclusive
const uint8_t kNumericPositive1ByteInt = kNumeric + 13;
const uint8_t kNumericPositive2ByteInt = kNumeric + 14;
const uint8_t kNumericPositive3ByteInt = kNumeric + 15;
const uint8_t kNumericPositive4ByteInt = kNumeric + 16;
const uint8_t kNumericPositive5ByteInt = kNumeric + 17;
const uint8_t kNumericPositive6ByteInt = kNumeric + 18;
const uint8_t kNumericPositive7ByteInt = kNumeric + 19;
const uint8_t kNumericPositive8ByteInt = kNumeric + 20;
const uint8_t kNumericPositiveLargeMagnitude = kNumeric + 21; // >= 2**63 including +Inf
那么划分类型的依据是哪些呢?
大于等于2**63包括+Inf
, -小于等于2**63包括-Inf
, (0,1.0) ,(-1.0,0)等,特殊范围的值 这些值只能是浮点数类型这些子类型的 Double 的编码相对容易很多,只需要按照 Double 原有格式稍作处理,然后使用大端模式编码即可;
问题是如何对比存在交集的值,比如整数 1 和浮点数 1.5, 先看下以上俩个值转成 keyString:
128 0 0 0 0 0 0
表示小数部分,表示 0.5,整数部分加小数部分加起来一共 8 位,剩下 7 个 byte 来表示小数部分。为什么需要用最后一个 1bit 位来表示是否含有小数部分呢?如果没有这个 bit 位, 俩个数整数部分长一样的话,Double 的小数部分要和 Int 后面的结束符 0x4 来比较了,避免比较出现的误差,还能加快比较;double 本身是 8 位, 现在转成 keyString 还是 8 位。虽然上面提到浪费了一个 bit 来表示是否包含小数部分,现在 8 位只表示绝对值了,正负在类型体现了,不会有精度的丢失。对于小数部分为 0 的浮点数, 生成的 keystring 与与之对应的整数一样。
MongoDB 中使用索引查询数据会有 2 个阶段:
(/tencent/api/attachments/s3/url?attachmentid=2948416)
就是说普通索引在底层引擎中索引 b 树中的 key
ks(索引field对应的值) + kEnd + RecordId
_id 索引在底层引擎中索引 b 树中的 key
ks(索引field对应的值) + kEnd
非唯一普通索引的 key 包含 RecordId,是因为 WT 引擎中的 Key 是唯一的,但是索引中的 Key 是不唯一的。比如 {a: 1} 索引,很多条 BSON 文档的 "a" 字段都能等于 1,因此在存储索引的时候必须通过方法进行区分。 在 MongoDB 中,由于每个文档都有独立的 RecordId,这样将 RecordId 作为后缀就能保证唯一性。
普通的唯一索引,上述问题不存在, 但是为什么唯一索引的 key 也包含 RecordId 呢? 主要是为了解决主从同步的时,从节点的 oplog 并发回放的,回放时的乱序可能会临时打破索引的唯一性质。举个例子,主上依次进行以下三个操作: insert {_id:1, a:1} remove {_id:1} 和 insert {_id:2, a:1}。a 字段为唯一索引, 从上根据_id 做 hash 然后并发回放时 一个线程回放 insert {_id:1, a:1}和 remove {_id:1},另外一个回放 insert {_id:2, a:1}。 remove {_id:1} 和 insert {_id:2, a:1}的顺序得不到保证,最终可能的一种顺序为: insert {_id:1, a:1}, insert {_id:2, a:1}以及 remove {_id:1}, 对 a 索引进行重复插入了{a:1}, 所以回放时就得暂时不检查 a 索引的唯一性,需要按照上述的方式采用 RecordId 作为后缀。
但是使用 RecordId 后缀方式之后,主节点数据写数据时索引唯一性的检查逻辑会更复杂。
在数据插入前的检测逻辑如下:需要在索引中要插入带 RecordId 的 Key, 格式为: ks1+RecordId。首先会先将 RecordId 后缀去掉,插入 ks1,然后将其 Remove 掉,先插入后删除 KeyString 的操作利用了 wt 引擎乐观锁的特性,构成了写冲突的条件; 假设此时来了另外一个的插入操作, KeyString 相同但是 RecordId 不同,也得需要先插入 ks1, 但是 wt 引擎检查到 KeyString 已经被修改,该操作抛出异常;所以先插入后删除 KeyString 保证了对一个 KeyString 同时只能有一个索引唯一性的检查; 最后就到了实际的重复 key 检查逻辑, 找到第一条大于等于 ks1 的数据, 如果该数据的 key 前缀也正好 ks1,那么索引唯一性检查失败。
_id 也是(自带的)唯一索引,为啥就能把 RecordId 放在 Value 部分呢?因为 oplog 回放首先会通过 _id 进行 hash 分桶,然后多个桶之间并发回放。也就是说 _id 不会存在乱序回放的问题,因此将 RecordId 挡在 Value 部分是没问题的,并且对于唯一索引的插入,没有索引唯一性的检查逻辑,性能也就没有损耗。
在使用数据库过程中一般的建议是先建好索引,然后再进行业务的操作, 不过也存在一些场景由于前期设计不合理, 在数据量比较大时需要给表增加索引,以 4.0 为例有以下俩种建索引的方式, 前台建索引和后台建索引俩种方式。
默认情况下,使用前台建索引,不过因为持有 db 的写锁, 将阻塞 db 其他的所有操作。即该 db 上的集合的无法正常读写,直到索引创建完毕。 如果不想影响业务的使用,就需要指定参数{background:1}, 使用后台建索引的方式,但是耗费的时间会更久。
为什么后台建立索引时间更久呢? 先看看前台建索引的大致流程,在整个流程中,一直持有 db 的写锁,禁止读写操作, 直到索引建立完成。
\1) 扫描整个数据文件,按照用户所要求的字段以及 recordid 生成 keystring; \2) 将以上生成的 keystring 暂时存到内存中, 如果所占用的内存大小达到了 500MB 或者,就排序后落盘存放在临时文件,如果数据量比较大,磁盘上会有多个 500MB 的文件,文件内 keystring 时有序的; \3) 对以上文件进行归并,将结果批量写到索引 b 树中(索引文件底层也是一颗 b 树)。
从以上来看前台建立索引会将数据在文件排好序, 然后批量写入到索引 b 树中, 要比后台索引随机写入索引 b 树性能要更高。 为什么后台建立索引过程中允许写入还能保证索引数据的一致性呢? 后台建索引的是直接扫描整个数据文件,期间允许读写操作, 按照用户所要求的字段以及 recordid 生成 keystring, 然后插入到索引 b 树中,并且用户的更新/插入/删除操作也会对索引 b 树进行修改。 如何保证一遍全表扫,一边更新/插入/删除操作,保证最终数据和索引的一致性呢?可以分成三种情况:
情形 1:更新/插入/删除还没扫到的数据;情形 2:更新/插入/删除已经扫到的数据;情形 3: 更新/插入/删除和扫数据同时发生。
对情形 1, 如后续扫到插入时,会产生 DuplicateKey 错误,直接忽略;对于情形 2, 如更新/删除操作,会将之前的建立的索引删除;
情形 3比较难处理,需要依赖 wt 底层的事务写重入机制
MongoDB引擎层使用乐观锁的机制, 多个事务对同一条文档进行操作时, 其他事务感知到文档被修改后,就抛出写冲突异常,MongoDB捕获的,抛弃当前的引擎层事务, 会重新开启事务.
如用户一次 update 操作将{a:1}更新为{a:2},对应索引 b 树的操作为 remove 了{a:1},然后 insert 一条 a=2 的数据, 后台建索引线程扫描时 刚好扫到了{a:1},也会在索引 b 树 insert 一条{a:1} 的数据,预期的最后结果是索引了只剩{a:2}, 以上的操作都在各自的 wt 事务内完成。
虽然是同时操作的,但还是有先后顺序.
对于上述问题,其实官方早期版本中也存在, 如何进行修复呢? 其实在 remove 掉{a:1}之前, 可以先插入{a:1}, 在引擎中留下{a:1}被修改的记录, 等后台建索引线程扫描后会插入了{a:1}时, 就能救出写冲突, 抛弃当前的引擎层事务, 等用户 update 操作对应的 wt 事务提交后, 再重试时就无法扫描到{a:1}这条数据了, 最后只剩下{a:2}.
那么是否有方法能够结合以上俩者的优点呢?速度又快,又不会影响客户端的操作。 从 4.2 开始,默认使用了第三种方式:hybrid 建索引
建索引的过程中,如前台建立索引一样, 也会扫描全表, 然后生成多个内部数据有序的临时文件,然后归并排序好批量插入到索引 b 树中,怎么处理在上述过程中的的 更新/插入/删除操作呢?hybrid 建索引会将上述变更记录下来,然后等批量写入阶段结束后进行回放,为了保证数据的一致性,最终会在临界区再回放一次回放过程中产生的变更,临界区禁止用户写入。 所以 hybrid 建索引即拥有前台建索引的速度又如后台建索引不会卡住用户的操作。
所以 4.0 及以下集群需要使用后台建立索引需要指定{background:1}, hybrid 建索引在 4.2 是默认开启的,用户不需要关心.
在使用索引查询数据时, MongoDB 也使用火山模型, 其实比较常见的俩个阶段 IXSCAN 和 FETCH。 IXSCAN 通过扫描索引 b 树,返回 RecordId; FETCH 得到 RecordId 后从数据 b 树取出对应的 BSON 文档,直接提交给上层, 也有可能根据查询条件的不同,进行过滤后再提交给上层算子。
以用户使用较多的等值查询, 范围查询(和gt(e)等操作符)为例来介绍 MongoDB 是如何通过索引遍历数据来查询的。
在此之前看在无索引的情况下使用以及 gt(e)等操作符的注意点。mongo 只会比较相同的类型。如下所示, 表内有俩条数据
restore-test_0:PRIMARY> db.collb.find()
{ "_id" : ObjectId("647f204a2b531acaacf4afbe"), "a" : true }
{ "_id" : ObjectId("647f204d2b531acaacf4afbf"), "a" : 1 }
执行以下查询语句时, 只能找到 a 字段为数字类型的那条
restore-test_0:PRIMARY> db.collb.find({a:{$gte:1}})
{ "_id" : ObjectId("647f204d2b531acaacf4afbf"), "a" : 1 }
restore-test_0:PRIMARY> db.collb.find({a:{$lte:1}})
{ "_id" : ObjectId("647f204d2b531acaacf4afbf"), "a" : 1 }
如果业务的字段具有不同类型的值,需要注意这点
MongoDB 会将用户的查询语句转化为区间查询。 对于等值查询会将其转化为 start 和 end 相等的左开右开区间, 比如{a:1}, 那么对应的区间为[1.0, 1.0]。 对于范围查询如{a:{$gte:1}},就将其转换为[1.0, inf.0], 这里的inf.0表示无穷大的正数, 为什么不是MaxKey呢?,按上面的说明可以理解为MaxKey为无穷大,比任意值都要大。前面说过在无索引遍历的情况下,使用操作符 以及gt(e) 只会比较同类型的数据,同样的索引会选择该类型的最大值作为终止条件。比如对于bool类型来说{a:{$gte:false}}就会转换成[false, true]这个区间。
但是对于一些无最大值的类型,比如 string 类型,{a:{$gte: "1" }}查询条件如何转换成区间呢? 既然 keystring 可以在不同类型间比较, 那么我们只要取下个类型的最小值即可, 即对应的区间为["1", {}), {}表示 Object 类型,在类型顺序中属于 string 类型的下个类型。
所以虽然转换成 keystring 后,能够实现不同类型的比较, 但是在实际使用范围操作符遍历索引时, MongoDB 内部也会自动加上限制条件,保证只能取同类型数据。下面看下具体如何转换成对应的 KeyString 以及根据转换后的区间遍历过程。
上文中提到如{a:1}在作为普通索引在存储时, 会转换成以下格式:
key: ks(1) + kEnd + RecordId
value: typeBits
那么对应的区间[1.0, inf.0]是如何转换的呢? 首先并不知道 RecordId 对应多少, 那么就不能通过 wt 引擎的等值查询 search 接口直接查到对应的文档,需要使用 wt 引擎的 search_near 接口定位到第一条大于等于查询 key 的接口, 对应的查询 key 为:
key: ks(1) + kEnd
如果是左边是开区间的(1.0, inf.0]区间呢?这个时候如何还是使用 key: ks(1) + kEnd 作为查询 key, 有可能查到多的数据, 如果需要 MongoDB 上层再过滤下,不是一个很好的选择。最好的是在编码的时候搞定, MongoDB 实际才使用时在 ks(1) + kEnd 中间添加一个标记为 kExclusiveAfter, kExclusiveAfter 标识位的值位 254, 查询 key 为:
key: ks(1) + kExclusiveAfte + kEnd
这样使用引擎的 search_near 接口(大于等于语义)时,就能跳过{a:1}的数据。 区间的开始和结束都转换成 KeyString 后,并不是直接将开始和结束点的 KeyString 都传给 wt 引擎,而是只传开始的 key,然后 wt 引擎开始遍历,同时 MongoDB 上层对所遍历的 key 进行判断是否在区间内。
查询区间根据所命中的数据在索引 b 树上是否连续可以分为单区间和多区间, 根据查询区间的不同, MongoDB 上层判断是否在区间的方式也不一样。
如果是单区间比如以{a:1, b:1, c:1}为索引, 指定了等值查询如{a:10} 或者{a:10, b:20}等等, 或者单个范围{a: {$lte:10}} 或者{a:10, b: {$lte:10}}等前缀全是等值判断只有最后一项为范围的查询方式,单区间所命中的数据在索引 b 树上是连续的,就能根据区间结束条件生成 KeyString,在遍历过程中由 MongoDB 上层来进行 KeyString 二进制对比, 如果对比发现超范围了,就结束遍历。
单区间遍历比较直观,也比较好理解。如果业务查询条件比较复杂,非单区间遍历,那么 MongoDB 是怎么遍历的呢?
如{a:{$in:[10, 20, 30]}) 以及使用了{a:1, b:1, c:1},查询时按照{a:10 , c:{$lte:10}}等等相对较复杂的方式,所命中的数据在索引 b 树上不是连续的,MongoDB 就不是通过 KeyString 来判断, 而是每查询一条,都得根据 KeyString 反解生成对应的 BSON 文档, 然后再进行 BSON 比较判断是否在目标区间内, 否则就需要重定位到下一个区间, 当然如果已经在最后一个区间了, 就结束遍历。
下面用一个常见场景来分析下,假设有以下的数据集, 然后索引为{a:1, b:1, c:1}
数据集:
{a:1, b:1, c:1}
{a:1, b:1, c:2}
{a:1, b:1, c:3}
{a:1, b:1, c:4}
{a:1, b:2, c:5}
{a:1, b:2, c:1}
{a:1, b:2, c:2}
{a:1, b:2, c:3}
{a:1, b:2, c:4}
{a:1, b:2, c:5}
对于该语句 db.collection.find({a:"1", c:{$lte:1}}).sort({b:1, c:1})必定走索引遍历,不会有内存排序,但是索引数据在 b 树上也不是连续分布的,那么现在的问题是遍历过程中, 是否会将这十条数据全部遍历呢?
在遍历前通过分析,会确定 a、b 和 c 的取值范围, b 没有指定范围,所以时 MinKey 到 MaxKey, c 指定了是比较数字,所以左区间为-inf.0。
"a" : [ "[1.0, 1.0]" ],
"b" : [ "[MinKey, MaxKey]" ],
"c" : [ "[-inf.0, 1.0]" ]
按上面的分析,这是一个多区间查询,遍历过程中会发生重定位的行为, 我们详细来看下遍历的过程: 1) 跳转(seek)到第一条大于等于 {a:1.0, b:MinKey, c:-inf.0}的数据, 即第一条数据, 判断在范围内, 满足要求; 2) 遍历到第二条数据时, 发现 c 字段不在范围内, 不满足要求, 这里会触发跳转的逻辑,不会再判断第三条, 3) 既然当前 a 和 b 是在范围内,跳转的逻辑时找到大于{a:1, b:1}的第一条即可,即跳转到{a:1, b:2, c:1},满足要求 4) 然后重复上述的逻辑,判断{a:1, b:2, c:3}不符合要求后,需要查找大于{a:1, b:2}的数据, 就直接跳转到最后. 以上查询过程会跳转(seek)三次, 并不会扫描全部索引数据,而是扫描到了 4 条索引数据(keysExamined=4),最后判断有俩条数据时满足要求的。
所以 MongoDB 针对多区间查询的场景, 为了提交查询效率, 中间会穿插跳转(seek)的情况,减少遍历的 key 值。 但是以上述查询为例, **跳转(seek)的次数跟 b 字段的值范围多少有关, 在满足该种查询的情况下, 建议 b 字段的值是枚举类型,值空间是固定,避免出现较多的跳转(seek)**。并且从以上流程可以看到单区间遍历是通过 KeyString 二进制比较来判断终止查询是否终止, 而多区间查询为了能够实现跳转(seek),每次比较需要把 KeyString 反解成 BSON 文档来比较, 效率比 KeyString 二进制略低。
对于复合索引,此经验法则有助于确定索引中字段的顺序: 首先,添加运行 等值 查询的那些字段, 下一个要索引的字段应该反映查询的排序顺序, 最后的字段表示要访问的数据范围。 如{a:1, b:1, c:1} 索引, 按照以上原则设计, 在查询时,就能按索引遍历数据, 避免内存 sort 流程。
explain 是 MongoDB 的查询计划工具,和 MySql 的 explain 功能相同,都是用来分析一条语句的索引使用情况、影响行数、执行时间等。 explain 有三种参数分别对应结果输出的三部分数据:
建议在一个数据量较大的库上开发功能时,使用 explain 分析一下自己的语句和索引是否合理,避免在项目上线之后出现问题。MongoDB 也是采用火山模型来进行查找, 火山模型是数据库界已经很成熟的解释计算模型,该计算模型将关系代数中每一种操作抽象为一个 Operator,将整个 SQL 构建成一个 Operator 树,从根节点到叶子结点自上而下地递归调用 next() 函数。
常用 stage 解析: COLLSCAN:全表扫, 该阶段会扫描表的全部数据,从数据 b-tree 开始扫描,应当避免该 stage 的出现; IXSCAN:根据分析 sql 生成的索引范围来扫描索引 b-tree,在该 stage 中, 应关注扫描的条数是否合理; SORT_KEY_GENERATOR: 根据需要排序的字段生成 keystring,一般与 SORT stage 一起出现; SORT: 内存排序阶段,占用内存,应当设计合适的索引来避免该阶段; FETCH:回表操作,获取到 RecordId 后,在数据 b-tree 中查找对应的文档; PROJECTION: 选择需要返回给的字段。
通俗的讲就是,如果索引的列在所需获得的列中(因为索引是根据索引列的值进行排序的,所以索引节点中存在该列中的部分值)或者根据一次索引查询就能获得记录就不需要回表,mongo 默认的查询过程中, 在索引 b 树上找到对应的 RecorId 上, 还需在数据 b 树找对应的文档,然后进行 bson 解析。 实际上如果用户所需要的信息在索引 b 树的 key 内已经包括了,后面的回表操作是多余的,尤其是在大文档的条件下, BSON 解析比较消耗性能。
那么 MongoDB 如何去避免回表呢?
我们可以在 MongoDB 中可以通过使用 project 来选择需要返回的字段,保证所需字段在 project 条件内,特别注意 MongoDB 默认_id 字段是需要返回的,如果确定不需要_id 字段,需要显式的指定_id 为 0,可以通过判断 explain 内是否包括 FETCH 阶段来判断是否发生了回表行为。 以某业务 cpu 使用率为例:
该业务每条文档都比较大, 业务实际在使用的过程中指定 project 优化后, cpu 性能提升比较明显。
在线上的业务中,发现有很多业务存储使用多余索引的情况,
所谓 multikey 是指如果一个字段的值是数组,那么为该字段创建索引时为数组中的每个元素创建一个索引键,这些多键索引支持对数组字段的有效查询。 比如文档{_id:0, a:[1, 2, 3]},对应的 RecordId 为 0 , 对 a 字段建立索引时, 在索引 b 树上会插入三条数据,它们的 key 为:
ks(1) + RecordId(0)
ks(2) + RecordId(0)
ks(3) + RecordId(0)
用户通过{a:1}, {a:2} 以及{a:3}等查询时,都能通过索引找到 recordId 为 0 ,然后找到数据, 这种查询方式比较符合用户的使用习惯。 当然能范围查询如{a:{$lte:3}},也会走索引,但是这会带来一个问题,在 IXSCAN 阶段三条索引数据都满足要求,那么 IXSCAN 阶段是否会返回三条同样的 RecordId, 接下来的 FETCH 阶段是否查询三次呢? 实际上对于 multiKey 索引在遍历第一条索引数据时, MongoDB 就有有个 set记录了已经遍历了的 recordId, 当遍历第二条 ks(2) + RecordId(0)
以及第三条数据时就可以判断 RecordId(0) 这条 bson 文档已经被遍历过了,不需要将对应的 RecordId 提交给上层的 FETCH 阶段了。
如果对{a:1}字段建唯一索引呢? 如果我们想继续插入如 {a:[3, 4, 5]} 对应的 RecordId 为 0,是会失败的,由于已经在索引 b 树中插入了三条数据 ks(1) + RecordId(0) 、 ks(2) + RecordId(0)和 ks(3) + RecordId(0),新插入的 ks(3) + RecordId(1) 与 已插入的 ks(3) + RecordId(0)不同通过唯一性检查,所以这里需要注意唯一 multiKey 索引,是要求数组内的值唯一, 而不是整个数组唯一。
再看下面一个例子,表中有个俩条文档, 以{a:1}建索引
{_id:0, a:[1, 4]} => RecorId(0)
{_id:1, a:[2, 3]} => RecorId(1)
先对 a 字段进行排序查询
PRIMARY> db.collection.find().sort({a:1})
{ "_id" : 0, "a" : [ 1, 4 ] }
{ "_id" : 1, "a" : [ 2, 3 ] }
然后逆序查询输出下:
PRIMARY> db.collection.find().sort({a:-1})
{ "_id" : 0, "a" : [ 1, 4 ] }
{ "_id" : 1, "a" : [ 2, 3 ] }
居然顺序和逆序查询结果是一样的!!!按照我们上述分析的可以仔细分析出来, 这个俩条文档需要在索引 b 树中生成 4 个 kv 对,他们的 k 如下:
ks(1) + Record(0)
ks(2) + Record(1)
ks(3) + Record(1)
ks(4) + Record(0)
我们执行的查询语句会走索引,所以不管是顺序还是逆序都会先查询到 RecordId 为 0 的那条。
“我们的表很大,现在需要对一个不存在的字段建索引,速度会不会快很多?”,我们在线上的运营过程中遇到过以上疑问,因为建索引可以简化成俩个步骤:扫表和往索引 b 树插入数据。扫表是避免不了的,但是对应的字段为空,是不是就不会往索引 b 树中插入数据了呢?
首先我们可以看下如果索引字段为空,对应的索引 b 树中也没有对应的记录会有什么后果。用户常使用 操作符来判断字段是否存在,如果索引树中也没有对应的对的话,那么exists 操作符在查询是就不能走索引了,只能通过全表扫描的方式,这样的效率是不能接受的。
索引 b 树中需要特殊标识下字段为空的情况, 实际上在建立索引时如果字段为空, 就会认为该字段的类型为特殊的 null 类型(前文中已经提到过),db.collection.find({a:{$exists:false}}),对应的查询区间为[null, null]。所以对于开头的问题,对一个不存在的字段建索引,速度并不会快。
可以通过稀疏索引(或者称间隙索引)就是只包含有索引字段的文档的条目,即使索引字段包含一个空值。也就是说间隙索引可以跳过那些索引键不存在的文档。
{
"timestamp": "Thu Apr 2 07:51:50.985" ,
"severityLevel": "I"
"components": "COMMAND"
"namespace": "animal.MongoUser_58"
"operation": "find"
"command": { find: "MongoUser_58", filter: { $and: [ { lld: { $gte: 18351 } }, { fc: { $lt: 120 } }, { _id: { $nin: [1244093274 ] } }, { $or: [ { rc: { $exists: false } }, { rc: { $lte: 1835400100 } } ] }, { lv: { $gte: 69 } }, { lv: { $lte: 99 } }, { cc: { $in: [ 440512, 440513, 440514, 440500, 440515, 440511, 440523, 440507 ] } } ] }, limit: 30 } //具体的操作命令细节
"planSummary": "IXSCAN { lv: -1 }", // 命令执行计划的简要说明,当前使用了 lv 这个字段的索引。如果是全表扫描,则是COLLSCAN
"keysExamined": 20856, // 该项表明为了找出最终结果MongoDB搜索了索引中的多少个key
"docsExamined": 20856, // 该项表明为了找出最终结果MongoDB搜索了多少个文档
"cursorExhausted": 1, // 该项表明本次查询中游标耗尽的次数
"keyUpdates":0,
"writeConflicts":0, // 写冲突发生的数量,例如update一个正在被别的update操作的文档
"numYields":6801, //
"nreturned":0, //
"reslen":110, //
"locks": { // 在
Global: { acquireCount: { r: 13604 } },
Database: { acquireCount: { r: 6802 } },
Collection: { acquireCount: { r: 6802 } }
},
"protocol": "op_command",
"millis" : 69132, // 从 MongoDB 操作开始到结束耗费的时间,单位为ms
}
与索引相关的重要字段:
本文由微信公众号腾讯技术工程原创,哈喽比特收录。
文章来源:https://mp.weixin.qq.com/s/g0mNt73nnFS_xyVGuAPe-g
京东创始人刘强东和其妻子章泽天最近成为了互联网舆论关注的焦点。有关他们“移民美国”和在美国购买豪宅的传言在互联网上广泛传播。然而,京东官方通过微博发言人发布的消息澄清了这些传言,称这些言论纯属虚假信息和蓄意捏造。
日前,据博主“@超能数码君老周”爆料,国内三大运营商中国移动、中国电信和中国联通预计将集体采购百万台规模的华为Mate60系列手机。
据报道,荷兰半导体设备公司ASML正看到美国对华遏制政策的负面影响。阿斯麦(ASML)CEO彼得·温宁克在一档电视节目中分享了他对中国大陆问题以及该公司面临的出口管制和保护主义的看法。彼得曾在多个场合表达了他对出口管制以及中荷经济关系的担忧。
今年早些时候,抖音悄然上线了一款名为“青桃”的 App,Slogan 为“看见你的热爱”,根据应用介绍可知,“青桃”是一个属于年轻人的兴趣知识视频平台,由抖音官方出品的中长视频关联版本,整体风格有些类似B站。
日前,威马汽车首席数据官梅松林转发了一份“世界各国地区拥车率排行榜”,同时,他发文表示:中国汽车普及率低于非洲国家尼日利亚,每百户家庭仅17户有车。意大利世界排名第一,每十户中九户有车。
近日,一项新的研究发现,维生素 C 和 E 等抗氧化剂会激活一种机制,刺激癌症肿瘤中新血管的生长,帮助它们生长和扩散。
据媒体援引消息人士报道,苹果公司正在测试使用3D打印技术来生产其智能手表的钢质底盘。消息传出后,3D系统一度大涨超10%,不过截至周三收盘,该股涨幅回落至2%以内。
9月2日,坐拥千万粉丝的网红主播“秀才”账号被封禁,在社交媒体平台上引发热议。平台相关负责人表示,“秀才”账号违反平台相关规定,已封禁。据知情人士透露,秀才近期被举报存在违法行为,这可能是他被封禁的部分原因。据悉,“秀才”年龄39岁,是安徽省亳州市蒙城县人,抖音网红,粉丝数量超1200万。他曾被称为“中老年...
9月3日消息,亚马逊的一些股东,包括持有该公司股票的一家养老基金,日前对亚马逊、其创始人贝索斯和其董事会提起诉讼,指控他们在为 Project Kuiper 卫星星座项目购买发射服务时“违反了信义义务”。
据消息,为推广自家应用,苹果现推出了一个名为“Apps by Apple”的网站,展示了苹果为旗下产品(如 iPhone、iPad、Apple Watch、Mac 和 Apple TV)开发的各种应用程序。
特斯拉本周在美国大幅下调Model S和X售价,引发了该公司一些最坚定支持者的不满。知名特斯拉多头、未来基金(Future Fund)管理合伙人加里·布莱克发帖称,降价是一种“短期麻醉剂”,会让潜在客户等待进一步降价。
据外媒9月2日报道,荷兰半导体设备制造商阿斯麦称,尽管荷兰政府颁布的半导体设备出口管制新规9月正式生效,但该公司已获得在2023年底以前向中国运送受限制芯片制造机器的许可。
近日,根据美国证券交易委员会的文件显示,苹果卫星服务提供商 Globalstar 近期向马斯克旗下的 SpaceX 支付 6400 万美元(约 4.65 亿元人民币)。用于在 2023-2025 年期间,发射卫星,进一步扩展苹果 iPhone 系列的 SOS 卫星服务。
据报道,马斯克旗下社交平台𝕏(推特)日前调整了隐私政策,允许 𝕏 使用用户发布的信息来训练其人工智能(AI)模型。新的隐私政策将于 9 月 29 日生效。新政策规定,𝕏可能会使用所收集到的平台信息和公开可用的信息,来帮助训练 𝕏 的机器学习或人工智能模型。
9月2日,荣耀CEO赵明在采访中谈及华为手机回归时表示,替老同事们高兴,觉得手机行业,由于华为的回归,让竞争充满了更多的可能性和更多的魅力,对行业来说也是件好事。
《自然》30日发表的一篇论文报道了一个名为Swift的人工智能(AI)系统,该系统驾驶无人机的能力可在真实世界中一对一冠军赛里战胜人类对手。
近日,非营利组织纽约真菌学会(NYMS)发出警告,表示亚马逊为代表的电商平台上,充斥着各种AI生成的蘑菇觅食科普书籍,其中存在诸多错误。
社交媒体平台𝕏(原推特)新隐私政策提到:“在您同意的情况下,我们可能出于安全、安保和身份识别目的收集和使用您的生物识别信息。”
2023年德国柏林消费电子展上,各大企业都带来了最新的理念和产品,而高端化、本土化的中国产品正在不断吸引欧洲等国际市场的目光。
罗永浩日前在直播中吐槽苹果即将推出的 iPhone 新品,具体内容为:“以我对我‘子公司’的了解,我认为 iPhone 15 跟 iPhone 14 不会有什么区别的,除了序(列)号变了,这个‘不要脸’的东西,这个‘臭厨子’。