etcd 底层存储使用 boltdb[1] 引擎,boltdb 本身支持事务,同时允许单个写事务与多个读事务,这其中用到了 COW 思想。
boltdb 是 lmdb 的实现,从压测图可以看到,除了读操作,其它各种指标均低于其它引擎,现在 boltdb 也成为了 etcd 的瓶颈之一,性能差,同时事务并发是全局的,并不像 innodb 那样支持 row 行并发
那么,当初 etcd 为什么选择 boltdb 作为 backend 呢?我猜是没得选,用 go 写的单机引擎,还支持 tx 事务的也就这一个,本次分享来看一下 etcd 优化 boltdb 操作的历史实现。
上图是 etcd 架构,client 写入数据经过 raft 模块确认后,由 ApplierV3 模块写入 MVCC
层。数据先写入内存表示的 KV index 中,然后再写入 backend, 即 boltdb
从 官方文档[2] 中可以看到,boltdb 提供了读写事务的 api
func (db *DB) Update(fn func(*Tx) error) error {
t, err := db.Begin(true)
......
// If an error is returned from the function then rollback and return error.
err = fn(t)
......
return t.Commit()
}
但是这个操作太重了,每次写事务 Commit
都会导致磁盘写入,还可能导致 b+tree 重新 rebalance, 操作非常 expensive ...
为了权衡,需要将写操作 batch 到一起,尽可能的提高性能,由于需要额外的操作,etcd 自己封装了一层 batch_tx, 并没有直接使用 boltdb 底层提供的 Batch
函数
这一版本实现非常粗糙,简单总结:所有上层的读写操作都使用一个 batch_tx 来实现,也就是读写阻塞的,并没有充份发挥底层 boltdb 特性,来看一下 mvcc/kvstore.go 的 Range
实现
func (s *store) Range(key, end []byte, ro RangeOptions) (r *RangeResult, err error) {
id := s.TxnBegin()
kvs, count, rev, err := s.rangeKeys(key, end, ro.Limit, ro.Rev, ro.Count)
s.txnEnd(id)
......
}
func (s *store) TxnBegin() int64 {
s.mu.Lock()
s.currentRev.sub = 0
s.tx = s.b.BatchTx()
s.tx.Lock()
s.txnID = rand.Int63()
return s.txnID
}
func (s *store) txnEnd(txnID int64) error {
......
s.tx.Unlock()
......
s.mu.Unlock()
return nil
}
Txn 共同使用 backend 层的 BatchTx
, 事务开启关闭有一把大锁 s.mu.Lock
, 如果有 expensive operation 会导致其它操作阻塞。同时 BatchTx
为了安全,事务每写 10000 条或是超过 100ms, 均会 Commit
持久化并开启新的 BatchTx
,供后续使用
这个版本为了提高并发,读操作使用 TxnRead
接口,对应 Backend.ReadTx
, 写操作使用 TxnWrite
接口,对应 backend.batchTxBuffered
, 这两个 tx 封装 都是带上 buffer 的,大大的提高了性能。这就是所谓的 N Read or 1 Write 并发。
但是实现还是有竞争和性能损失,比如TxnWrite
在每次提交时都会将写更改写回到 TxnRead
事务的 buffer 中,这会抢占 TxnRead
的锁
同时当 TxnWrite
写事务提交时,为了事务一致性,Commit
操作会回滚读事务 TxnRead
func (s *store) Read() TxnRead {
s.mu.RLock()
tx := s.b.ReadTx()
s.revMu.RLock()
tx.Lock()
firstRev, rev := s.compactMainRev, s.currentRev
s.revMu.RUnlock()
return newMetricsTxnRead(&storeTxnRead{s, tx, firstRev, rev})
}
func (tr *storeTxnRead) End() {
tr.tx.Unlock()
tr.s.mu.RUnlock()
}
func (s *store) Write() TxnWrite {
s.mu.RLock()
tx := s.b.BatchTx()
tx.Lock()
tw := &storeTxnWrite{
storeTxnRead: &storeTxnRead{s, tx, 0, 0},
tx: tx,
beginRev: s.currentRev,
changes: make([]mvccpb.KeyValue, 0, 4),
}
return newMetricsTxnWrite(tw)
}
func (tw *storeTxnWrite) End() {
......
tw.tx.Unlock()
if len(tw.changes) != 0 {
tw.s.revMu.Unlock()
}
tw.s.mu.RUnlock()
}
上面就是 Txn 操作的接口,读可以做到并发,写还是串行的
func (t *batchTxBuffered) Unlock() {
if t.pending != 0 {
t.backend.readTx.mu.Lock()
t.buf.writeback(&t.backend.readTx.buf)
t.backend.readTx.mu.Unlock()
if t.pending >= t.backend.batchLimit {
t.commit(false)
}
}
t.batchTx.Unlock()
}
上面是写事务 Unlock
时的操作,将更新的数据回写到 TxnRead 读事务的 buf 中
func (t *batchTxBuffered) unsafeCommit(stop bool) {
if t.backend.readTx.tx != nil {
if err := t.backend.readTx.tx.Rollback(); err != nil {
plog.Fatalf("cannot rollback tx (%s)", err)
}
t.backend.readTx.buf.reset()
t.backend.readTx.tx = nil
}
t.batchTx.commit(stop)
if !stop {
t.backend.readTx.tx = t.backend.begin(false)
}
}
上面是写事务提交时的操作,需要回滚读事务,然后重新开启读事务 tx, 并重置内存 buffer
Fully Concurrent[3] 连接是官方的 proposal
从上面的分析可以看到,底层还是有把大锁,如果有一个 expensive read, 比如 range 大范围的 key, 会导致写等待很久,所以为了实现真正的 N Read and 1 Write 的并发粒度,还有很多工作要作
ConcurrentReadTx
, 每次读请求新建一个 TxnRead
, copy 全局 ReadTx.Buf, 而不是复用Unlock
时,需要写回 ReadTx.Buf, 而不是 ConcurrentReadTx.Buf, 所以不会受读影响Commit
时,重新开启 ReadTx
即可,这样新来的 Read 读操作就会基于新的 ReadTx
派生生 ConcurrentReadTx
。同时 Commit
也会开启一个 goroutine, 来确保所有的基于旧 ReadTx
的事务结束后回滚。func (s *store) Read(trace *traceutil.Trace) TxnRead {
s.mu.RLock()
s.revMu.RLock()
// backend holds b.readTx.RLock() only when creating the concurrentReadTx. After
// ConcurrentReadTx is created, it will not block write transaction.
tx := s.b.ConcurrentReadTx()
tx.RLock() // RLock is no-op. concurrentReadTx does not need to be locked after it is created.
firstRev, rev := s.compactMainRev, s.currentRev
s.revMu.RUnlock()
return newMetricsTxnRead(&storeTxnRead{s, tx, firstRev, rev, trace})
}
// ConcurrentReadTx creates and returns a new ReadTx, which:
// A) creates and keeps a copy of backend.readTx.txReadBuffer,
// B) references the boltdb read Tx (and its bucket cache) of current batch interval.
func (b *backend) ConcurrentReadTx() ReadTx {
b.readTx.RLock()
defer b.readTx.RUnlock()
// prevent boltdb read Tx from been rolled back until store read Tx is done. Needs to be called when holding readTx.RLock().
b.readTx.txWg.Add(1)
// TODO: might want to copy the read buffer lazily - create copy when A) end of a write transaction B) end of a batch interval.
return &concurrentReadTx{
baseReadTx: baseReadTx{
buf: b.readTx.buf.unsafeCopy(),
txMu: b.readTx.txMu,
tx: b.readTx.tx,
buckets: b.readTx.buckets,
txWg: b.readTx.txWg,
},
}
}
ReadTx 锁,只会持有很短的时间,直到 unsafeCopy
结束,很轻量的
func (t *batchTxBuffered) Unlock() {
if t.pending != 0 {
t.backend.readTx.Lock() // blocks txReadBuffer for writing.
t.buf.writeback(&t.backend.readTx.buf)
t.backend.readTx.Unlock()
if t.pending >= t.backend.batchLimit {
t.commit(false)
}
}
t.batchTx.Unlock()
}
Unlock
写回更新数据到 readTx.buf
,锁时间也很短
func (t *batchTxBuffered) unsafeCommit(stop bool) {
if t.backend.readTx.tx != nil {
// wait all store read transactions using the current boltdb tx to finish,
// then close the boltdb tx
go func(tx *bolt.Tx, wg *sync.WaitGroup) {
wg.Wait()
if err := tx.Rollback(); err != nil {
t.backend.lg.Fatal("failed to rollback tx", zap.Error(err))
}
}(t.backend.readTx.tx, t.backend.readTx.txWg)
t.backend.readTx.reset()
}
t.batchTx.commit(stop)
if !stop {
t.backend.readTx.tx = t.backend.begin(false)
}
}
Commit
提交写的同时,直接开启新的读事务,同时开启 goroutine wait 所有读事务完成后,回滚老的读事务确保一致性。
这里面可以看到,batchTxBuffered 做 Unlock
时,将更改只回写到了全局的 ReadTx.Buf
中,其它读事务是看不到更改的。如果套用数据库 ACID 的隔离级别,这个类似 Read-Repeatable 的实现,而上面版本中能看到,那就类似 Read-Commited 的实现
总结下还是 boltdb 太搓了,如果并发粒度再细一点,比如行级别的,etcd 也省得做那么多优化了。
[1]boltdb: https://dbdb.io/db/boltdb,
[2]boltdb 官方文档: https://github.com/etcd-io/bbolt#read-write-transactions,
[3]Fully Concurrent: https://docs.google.com/document/d/1V9UuL8BnpZF2xFpHhvE1lO2hWvtdiLml3Ukr-m4jcdI/edit#,
本文由哈喽比特于3年以前收录,如有侵权请联系我们。
文章来源:https://mp.weixin.qq.com/s/7jhtXSXvdp1kdceNmRqBvQ
京东创始人刘强东和其妻子章泽天最近成为了互联网舆论关注的焦点。有关他们“移民美国”和在美国购买豪宅的传言在互联网上广泛传播。然而,京东官方通过微博发言人发布的消息澄清了这些传言,称这些言论纯属虚假信息和蓄意捏造。
日前,据博主“@超能数码君老周”爆料,国内三大运营商中国移动、中国电信和中国联通预计将集体采购百万台规模的华为Mate60系列手机。
据报道,荷兰半导体设备公司ASML正看到美国对华遏制政策的负面影响。阿斯麦(ASML)CEO彼得·温宁克在一档电视节目中分享了他对中国大陆问题以及该公司面临的出口管制和保护主义的看法。彼得曾在多个场合表达了他对出口管制以及中荷经济关系的担忧。
今年早些时候,抖音悄然上线了一款名为“青桃”的 App,Slogan 为“看见你的热爱”,根据应用介绍可知,“青桃”是一个属于年轻人的兴趣知识视频平台,由抖音官方出品的中长视频关联版本,整体风格有些类似B站。
日前,威马汽车首席数据官梅松林转发了一份“世界各国地区拥车率排行榜”,同时,他发文表示:中国汽车普及率低于非洲国家尼日利亚,每百户家庭仅17户有车。意大利世界排名第一,每十户中九户有车。
近日,一项新的研究发现,维生素 C 和 E 等抗氧化剂会激活一种机制,刺激癌症肿瘤中新血管的生长,帮助它们生长和扩散。
据媒体援引消息人士报道,苹果公司正在测试使用3D打印技术来生产其智能手表的钢质底盘。消息传出后,3D系统一度大涨超10%,不过截至周三收盘,该股涨幅回落至2%以内。
9月2日,坐拥千万粉丝的网红主播“秀才”账号被封禁,在社交媒体平台上引发热议。平台相关负责人表示,“秀才”账号违反平台相关规定,已封禁。据知情人士透露,秀才近期被举报存在违法行为,这可能是他被封禁的部分原因。据悉,“秀才”年龄39岁,是安徽省亳州市蒙城县人,抖音网红,粉丝数量超1200万。他曾被称为“中老年...
9月3日消息,亚马逊的一些股东,包括持有该公司股票的一家养老基金,日前对亚马逊、其创始人贝索斯和其董事会提起诉讼,指控他们在为 Project Kuiper 卫星星座项目购买发射服务时“违反了信义义务”。
据消息,为推广自家应用,苹果现推出了一个名为“Apps by Apple”的网站,展示了苹果为旗下产品(如 iPhone、iPad、Apple Watch、Mac 和 Apple TV)开发的各种应用程序。
特斯拉本周在美国大幅下调Model S和X售价,引发了该公司一些最坚定支持者的不满。知名特斯拉多头、未来基金(Future Fund)管理合伙人加里·布莱克发帖称,降价是一种“短期麻醉剂”,会让潜在客户等待进一步降价。
据外媒9月2日报道,荷兰半导体设备制造商阿斯麦称,尽管荷兰政府颁布的半导体设备出口管制新规9月正式生效,但该公司已获得在2023年底以前向中国运送受限制芯片制造机器的许可。
近日,根据美国证券交易委员会的文件显示,苹果卫星服务提供商 Globalstar 近期向马斯克旗下的 SpaceX 支付 6400 万美元(约 4.65 亿元人民币)。用于在 2023-2025 年期间,发射卫星,进一步扩展苹果 iPhone 系列的 SOS 卫星服务。
据报道,马斯克旗下社交平台𝕏(推特)日前调整了隐私政策,允许 𝕏 使用用户发布的信息来训练其人工智能(AI)模型。新的隐私政策将于 9 月 29 日生效。新政策规定,𝕏可能会使用所收集到的平台信息和公开可用的信息,来帮助训练 𝕏 的机器学习或人工智能模型。
9月2日,荣耀CEO赵明在采访中谈及华为手机回归时表示,替老同事们高兴,觉得手机行业,由于华为的回归,让竞争充满了更多的可能性和更多的魅力,对行业来说也是件好事。
《自然》30日发表的一篇论文报道了一个名为Swift的人工智能(AI)系统,该系统驾驶无人机的能力可在真实世界中一对一冠军赛里战胜人类对手。
近日,非营利组织纽约真菌学会(NYMS)发出警告,表示亚马逊为代表的电商平台上,充斥着各种AI生成的蘑菇觅食科普书籍,其中存在诸多错误。
社交媒体平台𝕏(原推特)新隐私政策提到:“在您同意的情况下,我们可能出于安全、安保和身份识别目的收集和使用您的生物识别信息。”
2023年德国柏林消费电子展上,各大企业都带来了最新的理念和产品,而高端化、本土化的中国产品正在不断吸引欧洲等国际市场的目光。
罗永浩日前在直播中吐槽苹果即将推出的 iPhone 新品,具体内容为:“以我对我‘子公司’的了解,我认为 iPhone 15 跟 iPhone 14 不会有什么区别的,除了序(列)号变了,这个‘不要脸’的东西,这个‘臭厨子’。