ceph基于pglog的一致性协议

MelanieStoc 8年前

来自: http://www.bitstech.net/2016/02/19/ceph基于pglog的一致性协议/

分布式存储系统通常采用多副本的方式来保证系统的可靠性,而多副本之间如何保证数据的一致性就是系统的核心。ceph号称统一存储,其核心RADOS既支持多副本,也支持纠删码。本文主要分析ceph的多副本一致性协议。

1.pglog及读写流程

ceph使用pglog来保证多副本之间的一致性,pglog的示意图如下:pglog主要是用来记录做了什么操作,比如修改,删除等,而每一条记录里包含了对象信息,还有版本。

ceph使用版本控制的方式来标记一个PG内的每一次更新,每个版本包括一个(epoch,version)来组成:其中epoch是osdmap的版本,每当有OSD状态变化如增加删除等时,epoch就递增;version是PG内每次更新操作的版本号,递增的,由PG内的Primary OSD进行分配的。

每个副本上都维护了pglog,pglog里最重要的两个指针就是last_complete和last_update,正常情况下,每个副本上这两个指针都指向同一个位置,当出现机器重启、网络中断等故障时,故障副本的这两个指针就会有所区别,以便于来记录副本间的差异。

为了便于说明ceph的一致性协议,先简要描述一下ceph的读写处理流程。

写处理流程:

1)client把写请求发到Primary OSD上,Primary OSD上将写请求序列化到一个事务中(在内存里),然后构造一条pglog记录,也序列化到这个事务中,然后将这个事务以directIO的方式异步写入journal,同时Primary OSD把写请求和pglog(pglog_entry是由primary生成)发送到Replicas上;

2)在Primary OSD将事务写到journal上后,会通过一系列的线程和回调处理,然后将这个事务里的数据写入filesystem(只是写到文件系统的缓存里,会有线程定期刷数据),这个事务里的pglog记录(也包括pginfo的last_complete和last_update)会写到leveldb,还有一些扩展属性相关的也在这个事务里,在遍历这个事务时也会写到leveldb;

3)在Replicas上,也是进行类似于Primary的动作,先写journal,写成功会给Primary发送一个committed ack,然后将这个事务里的数据写到filesystem,pglog与pginfo写到leveldb里,写完后会给Primary发送另外一个applied ack;

4)Primary在自己完成journal的写入时,以及在收到Replica的committed ack时都会检查是否多个副本都写入journal成功了,如果是则向client端发送ack通知写完成;Primary在自己完成事务写到文件系统和leveldb后,以及在收到replica的applied ack时都会检查是否多个副本都写文件系统成功,如果是则向client端发送ack通知数据可读;

对读流程来说,就比较简单,都是由Primary来处理,这里就不多说了。

2.故障恢复

ceph在进行故障恢复的时候会经过peering的过程,简要来说,peering就是对比各个副本上的pglog,然后根据副本上pglog的差异来构造missing列表,然后在恢复阶段就可以根据missing列表来进行恢复了。peering是按照pg为单位进行的,在进行peering的过程中,I/O请求是会挂起的,当进行完peering阶段进入recovery阶段时,I/O可以继续进行,不过当I/O请求命中了missing列表的时候,对应的这个待恢复的对象会优先进行恢复,当这个对象恢复完成后,再进行I/O的处理。

因为pglog记录数有限制,当对比各个副本上的pglog时,发现故障的副本已经落后太多了,这样就无法根据pglog来恢复了,所以这种情况下就只能全量恢复,称为backfill,坏盘坏机器或者集群扩容时也会触发backfill,这里不做介绍,后续单独一篇文章来进行分析。

基于pglog的一致性协议包含两种恢复过程,一个是Primary挂掉后又起来的恢复,一种是Replica挂掉后又起来的恢复。

2.1Primary故障恢复

简单起见,图中的数字就表示pglog里不同对象的版本。

1)正常情况下,都是由Primary处理client端的I/O请求,这时,Primary和Replicas上的last_update和last_complete都会指向pglog最新记录;

2)当Primary挂掉后,会选出一个Replica作为“临时主”,这个“临时主”负责处理新的读写请求,并且这个时候“临时主”和剩下的Replicas上的last_complete和last_update都更新到该副本上的[pglog的最新记录;

3)当原来的Primary又重启时,会从本地读出pginfo和pglog,当发现last_complete

2.2Replica故障恢复

与Primary的恢复类似,peering都是由Primary发起的,Replica起来后也会根据pglog的last_complete和last_update构建出replica自己的missing,然后Primary进行peering的时候对比权威日志(即自身)与故障replica的日志,结合replica的missing,构建出peer_missing,然后就遍历peer_missing来恢复对象。然后新的写入时会在各个副本上更新last_complete和last_update,其中故障replica上只更新last_update,恢复过程中,每恢复完一个对象,故障replica会更新last_complete,这样所有对象都恢复完成后,replica的last_complete就会追上last_update。

如果恢复过程中,故障replica又挂掉,然后重启后进行恢复的时候,也是先读出本地log,对比last_complete与last_update之间的pglog记录里的对象版本与本地读出来的该对象版本,如果本地不是最新的,就会加到missing列表里,然后Primary发起peering的时候发现replica的last_update是最新的,peering过程就没有新的对象加到peer_missing列表里,peer_missing里就是replica自己的missing里的对象。

</div> </div> </div>