ᕕ( ᐛ )ᕗ Jimyag's Blog

Raft论文总结

简介

如何多快好省的对大规模数据集进行存储和计算?

解决

  1. 更好的机器
  2. 更多的机器

问题

  1. 不断垂直扩展机器,升到一定配置之后就不能升级了。升级机器的配置带来的提升与付出的价格不匹配。瓶颈是在与硬件和对成本的控制
  2. MapReduce 中使用一些廉价的机器组成一个集群处理大规模的数据,这也会引出一个问题。如何保证多个机器之间的同步,如何解决机器间的网络问题。对于网络通信有三种:写入成功,写入失败,消息丢掉(无法判断消息丢失还是延迟)

如何让跨网络的机器之间协调工作?

  1. 状态立即一致
  2. 状态的最终一致

如何应对网络不可靠以及节点的实效?

  1. 可读写
  2. 可读
  3. 不可用

复制状态机

图 1

  1. Client 将操作发送到Leader结点,
  2. Leader 将同步请求发送到其余的结点,将操作记录到日志中
  3. 专门的状态机会将日志应用到server

一致性要解决的问题

  1. 输入:写入命令
  2. 输出:所有节点最终处于相同的状态
  3. 约束
  4. 网络不确定性:在非拜占庭情况下(非受信网络),出现网络 分区、冗余、丢失、乱序 等问题下要保证正确。
  5. 基本可用性:集群大部分节点能够保持相互通信,那么集群就应该能够正确响应客户端
  6. 不依赖时序:不依赖物理时钟或者极端的消息延迟来保证一致性。不能依靠给消息时间戳来保证消息的顺序。零点飘逸
  7. 快速响应:对客户端请求的响应不能依赖集群中最慢的节点

一个可行解

Raft 的详细实现

状态机

图 2

raft 中有三个角色(状态),三个角色可以进行一些切换,每一个状态都有不同的数据结构 所有的节点在启动的时候都是Follower,会启动一个心跳计时器,如果心跳计时器超时了,那么就会变为Candiate状态,变成之后会立即向其他结点发送投票请求进行投票,同时也会启动一个选举超时计时器。 如果收到半数以上人数的票就会变为leader,成为leader之后发送心跳和同步日志,启动一个定时器,每隔一段时间给follower发送心跳。 如果始终没有收到足够的选票,这时候选举定时器超时,就会更新自己的状态为候选人重新发起一轮新的投票过程 如果在等待选票的过程中,收到了leader的心跳请求,就会退回到follower状态。 由于网络分区,集群中又出现了一个leader,这时候网络中就有两个leader,这是分布式系统中一个常见的问题-脑裂。如何避免这个问题呢?给每一个leader都有一个任期term(在心跳中就会同步任期数),如果有两个leader之后就后根据term较大的一个作为新的leader,较小的term的leader就会退回为follower 选举的过程中,超时计时器的时间是固定的,所有的follower变为candidate同时请求选举,可能会有瓜分选票的问题,三个人手上都只有一张选票,没有超过半数,一直选举,一直都没有leader出现,一直都不可写。raft为了避免这个问题,给每个结点选举超时时间设定了一个随机范围,尽量在一次选举中就可以选出leader

数据结构

通用持久性数据(三个状态都有)

参数 解释
currentTerm 服务器已知的最新的任期,首次启动的时候为0。通过心跳更新
votedFor 当期任期内收到选票的候选者的ID,如果没有投给任何人,则为空,就是把票投给了谁
log[] 日志的条目,每个条目包含了用于应用状态机的命令,以及leader接受到该条目时的term,索引从1开始

通用易失性数据

参数 解释
commitIndex 已知已提交的最高的日志条目的索引,初始值为0
lastApplied 已经被应用到状态机的最高的日志条目的索引,初始值为0

leader的易失性数据

参数 解释
nextIndex[] 每一个follower,发送到改follower的下一个日志条目的索引,初始值为leader的最后日志条目的索引+1
matchIndex[] 每一个follower,已知的已经复制到该follower的最高日志条目的索引,初始值为0

对于每一个角色,都有不同的定时器,leader是发送心跳的计时器,follower是心跳超时的计时器,candidate是选举超时的计时器

RPC

RPC 的发起者是谁,由谁接受处理它?

请求投票

什么时候触发?
  1. follower变为candidate(follower的心跳计时器超时了)
  2. 选举超时
请求(核心)参数
参数 说明
term 候选人的任期号
candidateID 候选人的ID
lastLogIndex 候选人的最后(新)日志条目的index
lastLogTerm 候选人最后日志条目的任期号
返回值
参数 说明
term 当期任期号
voteGranted 候选人获得这张选票时为true,否则为false
返回term是集群中已经有新的leader出现了,把当前term给候选人,让它切换状态
投票逻辑(候选人)
  1. 在转变成候选人后就立即开始选举过程
  2. 自增当前的任期号 (currentTerm)
  3. 给自己投票(votedFor = 自己的 ID)
  4. 重置选举超时计时器
  5. 发送请求投票的 RPC 给其他所有服务器(到选举规则了)
  6. 如果接收到大多数服务器的选票,那么就变成领导人
  7. 如果接收到来自新的领导人的附加日志 RPC,转变成跟随者
  8. 如果选举过程超时,再次发起一轮选举
选举的规则(接受到RPC方)
  1. 如果term< currentTerm返回 false,currentTerm
  2. (判断候选人已经提交的的日志是否是足够新的,候选人应该拥有所有的已提交,从建立之初到现在的所有的日志)如果votedFor 为空 或者 等于 candidateld(可能是新一轮投票),并且比较lastLogTerm和currentTerm
  3. lastLogTerm>currentTerm则直接投票
  4. 小于则拒绝
  5. 等于则比较lastLogIndex 和 log[len(log)-1].idx

日志追加&心跳

触发
  1. 客户端发起写请求时
  2. 发送心跳时
  3. 日志匹配失败时
请求参数
参数 说明
term 当前leader的任期号
lederID 领导者的ID
preLogIndex leader紧邻新日志之前的那个日志的index
preLogTerm leader紧邻新日志之前的那个日志的term
entries 需要被提交的日志的条目
leaderCommit 领导者的已知已提交的最高的日志条目的索引
响应值
参数 说明
term 当前任期,对于leader而言,它会更新自己的Term
success 如果follower所含有的条目和preLogIndex以及preLogTerm匹配上了,返回true
第一个分区得不到半数确认,会处于为提交的状态
日志追加(leader)
  1. 一旦成为leader:发送空的附加日志RPC(心跳)给所有的follower,在一定空余时间之后不停的重复发送,阻止follower超时
  2. 如果接受到来自client的写请求:附加本条目到本地日志中,在条目被应用到状态机后响应client(可选,如果是强一致的,就这样做,如果不是强一致附加到本地日志就可以返回了)
  3. 对于follwer,如果leader的最后日志条目的索引值>=nextIndex,那么发送从nextIndex开始的所有日志条目:
  4. 如果成功,更新相应追随者的nextIndex和matchIndex
  5. 如果因为日志不一致而失败,减少nextIndex 重试(每次减1进行尝试,直到找到和preLogIndex,term匹配的就停止,就可以发送日志了。为什么只匹配到这个就可以认为之前的也一样呢?只要不匹配就往后退,就删除,最后肯定会当index=0的时候一定匹配,那么这时候1也匹配,2也配)
  6. 如果存在一个满足 N>commitIndex 的N,并且大多数的matchIndex[i]>=N 成立,并且log[N].term == currentTerm 成立,那么 commitIndex = N (matchIndex 是当前集群同步的进度,N就是超过一半的节点都提交到这个点了,中位数,那么就满足了法定人数,此时更新这个commit就是安全的)
接受日志(follower)
  1. 如果leader的term < follower当前的term,返回false,currentTerm
  2. 在接受者的日志中,如果能找到一个和preLogIndex以及preLogTerm一样的索引和任期的日志条目,则执行下面操作,否则返回false,
  3. 如果一个已经存在的条目和新的条目发生冲突(索引相同,任期不同),那么就删除这个已经存在的条目以及它之后的所有条目。(五个结点旧的leader和其中一个结点与其他三个结点分区了,网络恢复后,结点A有可能存在没有提交的logEntry),leader会让删除不是自己任期内的为提交的日志。当前日志未提交,可以强制使follower复制日志和leader一样。
  4. 追加日志中尚未存在的任何新条目 5. 如果领导者的(commitIndex)leaderCommit 大于 接收者的commitlndex 则把接收者的commitlndex 重置为 ( leaderCommit 或者是 发来的最新日志条目的索引值取两者 的最小值) ???

算法证明

五条公理

特性 说明
选举安全特性 给定一个term,最多只有一个leader
leader只附加原则 leader绝对不会删除或者覆盖自己的日志,只会增加
日志匹配原则 如果两个日志在相同index的term也相同,那么我们认为日志从头到index之间都完全相同
leader完全特性 某条日志条目在某个任期号中已经被提交,那么这个条目必然出现在更大的term的所有leader人中
状态机安全特性 如果一个leader已经将给定index的日志条目应用到状态机中,那么其他任何follower在这个index不会应用一个不同的日志

选举安全特性

1

在一个任期内半数以上选票才可以当选,保证每个任期要么0个领导要么1个领导。 normal operation 是有leader的时候 一个term可能也没有leader被选举出来,那么这时候term++,继续选举

日志复制过程的完全匹配

  1. 因为 集群在任意时刻最多只能有一个leader存在,leader在一个任期内只会在同一个索引处写入一次日志
  2. 又因为 领导者从来不会删除或者覆盖自己的日志,并且日志一旦写入就不允许修改
  3. 所以 只要任期和索引相同,那么在任何节点上的日志也都相同
  4. 因为 跟随者每次只会从与leader的PreLog匹配处追加日志,如果不匹配 则nextindex -1重试
  5. 所以 由递归的性质可知一旦跟随者和leader在PreLog处匹配,那么之前的所有日志就都是匹配的(0 就是空log,是起点,所有的结点都相同)
  6. 所以只要把preLog之后的日志全部按此次Leader同步RPC的日志顺序覆盖即可保证 二者的一致性

安全性

每一任的领导者一定会有所有任期内领导者的全部已提交日志吗?

选举限制

选民只会投票给任期比自己大,最后一条日志比自己新(任期大于或者等于时索引更大)的候选人。 但这真的正确吗? 图 4

  1. 时刻a,S1是任期2的领导人并且向部分节点(S1和S2)复制了2号位置的日志条目,然后宕机​
  2. 时刻b,S5获得了S3、S4( S5的日志与S3和S4的一样新,最新的日志的任期号都是1)和自己的选票赢得了选举,成了3号任期的领导人,并且在2号位置上写人了一条任期号为3的日志条目。在新日志条目复制到其他节点之前,S5若机了​
  3. 时刻c,S1重启,并且通过S2、S3、S4和自己的选票赢得了选举,成了4号任期的领导人,并且继续向S3复制2号位置的日志。此时,任期2的日志条目已经在大多数节点上完成了复制​ (s3 的4 可能还没有提交)
  4. 时刻d,S1发生故障,S5通过S2、S3的选票再次成为领导人(因为S5最后一条日志条目的任期号是3,比S2、S3、S4中任意一个节点上的日志都更加新),任期号为5。然后S5用自己的本地日志夜写了其他节点上的日志​
  5. 上面这个例子生动地说明了,即使日志条目被半数以上的节点写盘(复制)了,也并不代表它已经被提交(commited)到Raft集群了——因为一旦某条日志被提交,那么它将永远没法被删除或修改。这个例子同时也说明了,领导人无法单纯地依靠之前任期的日志条目信息判断它的提交状态​
  6. 因此,针对以上场景,Raft算法对日志提交条件增加了一个额外的限制:要求Leader在当前任期至少有一条日志被提交,即被超过半数的节点写盘
  7. 正如上图中e描述的那样,S1作为Leader,在崩溃之前,将3号位置的日志(任期号为4)在大多数节点上复制了一条日志条目(指的是条目3,term 4),那么即使这时S1若机了,S5也不可能赢得选举一一因为S2和S3最新日志条目的任期号为4,比S5的3要大,S3无法获得超过半数的选票。无法赢得选举,这就意味着2号位置的日志条目不会被覆写

所以新上任的领导者在接受客户端写入命令之前 需要提交一个no-op(空命令),携带自己任期号的日志复制到大多数集群节点上才能真正的保证选举限制的成立。(相当于不会单独同步Term 2,而是把同步Term2与Term4原子化,不然Term2会被覆盖)

状态机安全性证明(三段论)

  1. 定义 A为上个任期最后一条已提交日志,B为当前任期的leader​
  2. 因为 A必然同步到了集群中的半数以上节点​
  3. 又因为 B只有获得集群中半数以上节点的选票后才能成为leader​
  4. 所以 B的选民中必然存在拥有A日志的节点​
  5. 又因为 选举限制, B成为leader的前提是比给它投票的所有选民都要新​
  6. 所以 B的日志中必然要包含A​
  7. 又因为 日志完全匹配规则 如果A被B包含,那么比A小的所有日志都被B包含​
  8. 因为 lastApplied <= commitIndex​
  9. 又因为 raft保证已提交日志在所有集群节点上的顺序一致​
  10. 所以 应用日志必然在在所有节点上顺序一致​
  11. 因为 状态机只能按序执行应用日志部分​
  12. 得证 状态机在整个集群所有节点上必然 最终一致

状态机安全性证明(反证法)

  1. 当日志条目L被同步给半数以上节点时,leaderA会移动commitIndex指针提交日志,此时的日志被提交​
  2. 当leader崩溃后, 由一个新节点成为leaderB,假设leaderB是第一个未包含leaderA最后已提交日志的领导者​
  3. 选举过程中,只有获得半数以上节点认可才能成为leader,因此至少有一个投票给当前leaderB的节点中含有已经提交的那条日志L。​
  4. 那么根据选举限制, 节点只会将选票投给至少与自己一样新的节点​
  5. 节点C作为包含leaderA最后提交日志条目的投票者, 如果leaderB与节点C的最后一条日志的任期号一样大时,节点C的条目数一定大于leaderB,因为leaderB是第一个未包含最后一条LeaderA日志的领导者。这与选举限制相矛盾,节点C不会投票给leaderB
  6. 如果leaderB最后一条日志的任期号大于节点C最后一条日志的任期号, 那么leaderB的前任领导中必然包含了leaderA已经提交的日志(leaderB是第一个不包含leaderA已提交日志的领导者 这一假设) 根据 日志匹配特性 leaderB也必须包含leaderA最后的已提交日志,这与假设矛盾。​
  7. 所以证明 未来所有的领导者必然包含过去领导者已提交的日志,并且日志匹配原则,所有已提交日志的顺序一定是一致的。
  8. 又因为 任意节点仅会将已提交日志按顺序应用于自身的状态机,更新lastApplied指针,因此所有节点的状态机都会最终顺序一致。
  9. 得证 raft 算法能够保证节点之间的协同工作。

一些额外的资料

一致性介绍

脑裂 (split-brain)

原本一个集群,被分成了两个集群,同时出现了两个“大脑”,这就是所谓的“脑裂”现象。 这里的大脑都是被选举出来的,可能由于网络分区的原因,选举的时候。由于原本的一个集群变成了两个,都对外提供服务。 一段时间之后,两个集群之间的数据可能会变得不一致了。 当网络恢复时,就面临着谁当Leader,数据怎么合并,数据冲突怎么解决等问题。

网络分区

在分布式环境下,有时由于网络通讯故障,而不是服务器上的应用故障,导致一些节点认为应用不可用,另外一些节点认为应用仍可用。导致,整个系统在提供服务时,造成了不一致性。由于故障将网络划分为多个区域了。