The Chubby lock service for loosely-coupled distributed systems
awesomepaper
translate
字数21575 2021-03-07T14:15:27

参考文章

chubby vs zookeeper

原文翻译

摘要

Chubby 提供了一个粗粒度的,用于松耦合分布式系统的锁。Chubby 提供了类似分布式文件系统的接口,设计更强调可用性和可靠性,而不是高性能。很多实例已经用了一些年头,每个服务实例可以处理成千上百万的并发请求。本文章描述初始设计以及使用预期,并与适应实际使用作出的修改作对比。

1. 介绍

a lock service called Chubby

lock service 的目的是,可以使能 client 同步它们的逻辑,以及分享它们环境的基本信息。主要设计目标包括,可用性、可靠性以及易于使用,吞吐和存储容量在第二位被考虑。Chubby 的 client 接口就像系统提供的 read 和 write 一样,以及尝试锁和例如文件修改的时间通知。

我们期望 Chubby 帮助开发者更容易处理分布式系统中的同步事件,尤其是处理类似从多个服务器中选 leader 这种场景,比如 Google File System 使用 Chubby lock 选出一个 GFS 的主服务器,Bigtable 在多个地方使用 Chubby:选主,主服务器的控制指令分发,client 找主。需要额外提到是,GFS 和 Bittable 都使用 Chubby 来存储少量的 meta 数据;实际上,它们使用 Chubby 分布式数据结构的 root。有些服务使用 Chubby lock 来为多个服务器分发任务。

在 Chubby 被部署之前,多数 Google 的分布式系统使用 ad hoc 方法进行选主(如果任务重复执行没有危害),或者需要操作者进行干预(正确性至关重要)。在前一种情况,Chubby 可以节省计算资源,后一种情况,Chubby 使系统更干净,容易使用。

熟悉分布式计算的读者知道分布式一致性问题 (distributed consensus) 的选主,并且需要一个异步通信机制 (asynchronous communication)。这个术语描述了真实的网络环境(随时可能发生丢包,延迟或者包乱序)。asynchronous consensus 通过 Paxos 协议解决,实际上,我们见到的所有需要异步一致性的系统核心都有 Paxos 的身影。Paxos 无需时间假设就达到安全性,但是必须引入时钟来保证。

构建 Chubby 是填补上述需求的工程努力,这不是 research。我们没有声明什么新算法或者新技术。本文的目的是描述我们做了什么,以及为什么要做。后面的章节中,我们描述 Chubby 的设计和实现,以及改变了什么使用体验。描述了使用 Chubby 的意外方式,以及被证明是错误的方式。我们省略了一些细节,比如共识协议或者 RPC 系统的细节。

2. 设计

2.1 Retional

有些人可能会说我们应该建立一个 Paxos 的库,而不是一个集中的锁服务。一个 client paxos library 不依赖其他服务(包括名字服务),可以为开发者提供一个标准框架,假设他们的服务可以被实现为状态机。事实上,我们确实提供了独立与 Chubby 的一个 client library.

然而,lock service 相比 client library 有几点优势:

  1. 首先,我们开发者并不会预期一样考虑高可用性,通常系统以原型启动,使用较少的负载并且没有过多的可用性保证,代码的结构也不方便使用共识协议。当服务开始真正的服务客户端时,可用性变得很重要,复制,选主就要被加到设计中。当然这些可以使用提供了分布式一致性的库做到,但是 lock 服务使得这些变得更容易,不用改变现有的代码结构和通信方式。比如,选主然后写到文件服务需要添加两个状态和一个 RPC 参数到现有系统:一个请求 lock 称为主,传递一个额外的整数(lock acquisition count)到 write RPC,加一个 if 状态来拒绝如果 acquisition count 小于当前值的请求(防止包延迟导致问题)。我们发现这种技术方案比在服务中引入共识协议更简单,尤其是还要在过渡期间维护兼容性
  2. 我们的一些服务,比如选主或者在组件之间分割数据需要一个机制来发布结果。所有我们需要 client 可以存储,拉取少量数据--就是读写小文件。这可以使用名字服务完成,但是我们的经验告诉我们 lock service 本身就适合完成这个任务,不仅可以减少服务依赖,还因为共识协议的共享特性。 Chubby 成功作为名字服务由于使用一致性的 client 缓存,而不是基于时间的缓存。尤其是,我们发现开发者非常喜欢这种不基于时间的缓存设计,比如基于时间的 DNS 缓存,如果选择不当,可能会导致 DNS 负载过大或者客户端延迟严重。
  3. 开发者更熟悉 lock-based 的接口设计。Paxos 的复制状态机和排它锁可以为开发者提供顺序编程的错觉。但是,很多开发者使用锁,讽刺的是,这样的开发者通常会错误,尤其是在分布式系统中,很少人能考虑独立计算机故障对于异步通信系统中的锁的影响。尽管如此,锁的熟悉说服了开发者利用分布式的可靠机制【译者注:对于分布式系统中的锁服务,也必须使用共识协议,单机的锁,比如简单的 redis 作为分布式锁,如果单机 redis 挂了,对系统的影响是很严重的,比如 redis 作者也意识到了这一点,设计分布式锁给出了 redlock 的方案,关于 redis 分布式锁,可以前往 Redis 分布式锁以及相关讨论
  4. 最后,分布共识算法使用 Quorums 来决策,所以它们使用多个副本来达到高可用性。比如 Chubby 本身每个 cell 有 5 个副本,至少 3 个运行这个 cell 才可用。相比之下,如果客户端使用 lock service, 即使单个 client 也可以获取 lock。因此 lock service 减少了一个 client 系统所需的服务器数量。

这些讨论引出了两个核心设计决策:

根据我们的经验,环境和需求的一些决策:

一个让读者惊讶的选择是我们没有提供细粒度锁,比如 hold 秒级或者更短时间。比如应用使用 lock 作为选主,将要在接下来的几个小时或者几天,处理所有的数据。这两种使用方式表明了 lock service 的不同要求

粗粒度锁对锁服务器的负载要小得多。特别是,锁的获取频率通常与客户端应用系统的事务频率只有很微弱的关联。粗粒度的锁很少被获取,所以临时性的锁服务器的不可用给客户端造成的延时会更少。另一方面,锁在客户端间的转移可能需要高昂的恢复处理,所以人们不希望锁服务器的故障恢复导致锁丢失。因此,粗粒度的锁可以很好地应对锁服务器故障,几乎不需要考虑这样做的开销,而且这样的锁允许少量的锁服务器以较低的可用性为许多客户端提供足够的服务。

细粒度的锁会有不同的结论。即使锁服务器短暂地不可用,也可能导致许多客户端被挂起。因为锁服务的事务频率随着客户端的事务频率之和一起增长,所以性能和随意增加新服务器的能力非常重要。通过不维护跨锁服务器故障的锁来减少锁的开销是有优势的,而且由于锁只会被持有很短的时间,所以偶尔丢弃锁的时间损失并不严重。(客户端必须准备好在网络分区期间丢失锁,所以锁服务器故障恢复造成的锁的丢失不会引入新的恢复路径。)

Chubby 只提供粗粒度的锁定。幸运的是,客户端可以直接实现针对其应用程序定制的细粒度锁。应用程序可以将其锁划分为组,并使用 Chubby 的粗粒度锁将这些锁组分配给应用程序特定的锁服务器。维护这些细粒度的锁只需要很少的状态;服务器只需要保持一个稳定的、单调递增的且很少更新的请求计数器,客户端能够在解锁时发现丢失了的锁,如果使用简单的定长租期 (lease),协议会变得简单而有效。此方案最重要的好处是,我们的客户端开发人员负责提供支持其负载所需要的服务器,而不必自己去实现共识机制。

2.2 System structures

Chubby 有两个通过 RPC 通信的主要组件:服务器和客户端应用程序链接的库;如下图。Chubby 客户端和服务器之间的所有通信都由客户端库进行中介。第 3.1 节讨论了可选的第三个组件,即代理服务器

image-20210508181756052

一个 Chubby cell 由一组称为副本 (replicas) 的服务器(通常是 5 个)组成,放置这些服务器是为了减少相关故障的可能性(例如,放在不同的机架上)。副本使用一个分布式共识协议来选举一个 Master ;Master 必须从大多数副本中获得选票,并保证这些副本在 Master 租用的几秒钟内不会选择其他的 Master。主租赁由副本定期更新,前提是主租赁继续赢得多数选票。

副本维护一个简单数据库的副本集,但是只有 Master 才会发起对数据库的读写。其他所有副本只是复制来自 Master 的更新,使用一致性协议发送。

客户端通过向 DNS 中列出的副本集发送 Master 位置请求来找到 Master。非主副本通过返回主副本的身份来响应此类请求。一旦客户端找到了 Master,客户端就会将所有请求定向到它,直到它停止响应,或者直到它指出它不再是 Master。写请求通过协商一致性协议传播到所有副本;当写操作到达计算 cell 中的大多数副本时,将确认这些请求。读请求仅由 Master 来满足;这是安全的,只要主租赁没有到期,因为没有其他的 Master 存在。如果 Master 失败,其他副本在其 Master 租约到期时运行选举协议;新的 Master 通常会在几秒钟内选出。例如,最近的两次选举分别花了 6s 和 4s,但我们也见过长达 30s 的情况。

如果一个副本发生故障,并且几个小时内无法恢复,则简单的替换,系统将从空闲池中选择一台新机器,并启动其上的锁服务器的二进制文件。然后更新 DNS 表,将失败副本的 IP 地址替换为新副本的 IP 地址。当前的 Master 定期轮询 DNS,并最终注意到变化。然后更新 cell 数据库中 cell 成员的列表;这个列表通过正常的复制协议在所有成员之间保持一致。与此同时,新副本从存储在文件服务器上的备份和活动副本的更新组合中获取数据库的最新副本。一旦新副本处理了当前 Master 等待提交的请求,就允许该副本在新 Master 的选举中投票。

2.3 Files, Directories and handles

Chubby 开放的文件系统接口与 UNIX 类似,但比后者更简单。它通常按照的方式由严格的文件和目录树组成,名称组成部分由斜杠分隔。一个典型的名字是: /ls/foo/wombat/pouch

ls 前缀对所有 Chubby 的名字都相同,代表锁服务 (lock service)。第二部分 (foo) 是一个 Chubby cell 的名称;它通过 DNS 查询解析为一个或多个 Chubby 服务器。一个特殊的 cell 名称 local,表示应该使用客户端的本地 Chubby cell;这个 Chubby cell 通常在同一栋楼里,因此这个 cell 最有可能能访问到。名字的剩余部分,/wombat/pouch,是在 Chubby cell 内解析的。同样,在 UNIX 下,每个目录包含子文件和子目录的列表,而每个文件包含未解析的字节序列。

因为 Chubby 的命名结构类似于一个文件系统,所以我们既可以通过专门的 API 将它开放给应用系统,也可以通过我们其他文件系统,例如 GFS 使用的接口。这显著地减少了编写基本的浏览和名字空间操作工具所需的工作,也减少了培训那些偶然使用 Chubby 的用户的需求。

这种设计使得 Chubby 接口不同于 UNIX 文件系统,它使得分布更容易 (The design differs from UNIX in a ways that easy distribution)。为允许不同目录下的文件由不同的 Chubby master 来服务,我们没有放出那些将文件从一个目录移动到另一个目录的操作,我们不维护目录修改时间,也避开路径相关的权限语义(也就是文件的访问由其本身的权限控制,而不由它上层路径上的目录控制)。 为使缓存文件元数据更容易,系统不公开最后访问时间。

名称空间只包含文件和目录,统称为节点。每个这样的节点在其 Chubby cell 内只有一个名称;没有符号链接和硬链接。

节点可以是永久的 (permanent),也可以是短暂的 (ephemeral)。任意节点都可以被显示地 (explicitly) 删除,但是瞬时节点也会在没有客户端打开它时被删除 (另外,对目录而言,在它们为空时被删除)。短暂的文件被用作临时文件,并作为其他客户端存活的指示器。任意节点都能作为一个意向性 (advisory) 的读写锁;这些锁将在 2.4 节更详细地描述。

每个节点都有多种元数据,包括访问控制列表 (access control lists,ACLs) 的三个名字,分别用于控制读、写和修改其 ACL。除非被覆盖,否则节点在创建时将继承其父目录的 ACL 名称。ACLs 本身是位于一个 ACL 目录中的文件, 这个 ACL 目录是 Chubby cell 的一个为人熟知的本地名字空间。这些 ACL 文件的内容由简单的访问名字 (principals) 列表组成;读者可能会想起 Plan 9 的 groups 。因此,如果文件 F 的写 ACL 名称是 foo,并且 ACL 目录中包含一个 foo 文件,foo 文件中包含 bar 这个条目,那么用户 bar 就可以写文件 F。用户由内嵌在 RPC 系统里的机制鉴权。因为 Chubby 的 ACLs 是平常的文件,它们自动地就可以由其他想使用类似的访问控制机制的服务访问。

每个节点的元数据包括四个单调增加的 64 位编号,有利于客户端很容易地检测变化:

客户端通过打开节点以获得类似于 UNIX 文件描述符的句柄。句柄包括:

2.4 Locks and sequencers

每个 Chubby 文件和目录都可以充当读/写锁:一个客户端句柄可以在独占(写)模式下持有锁,或者任意数量的客户端句柄可以在共享(读)模式下持有锁。就像大多数程序员所知道的互斥锁 (mutexes) 一样,锁是协同锁 (advisory lock)。也就是说,它们只与获取相同锁的其他请求冲突:持有锁 F 既不是访问文件 F 的必要条件,也不会阻止其他客户端访问文件 F。我们舍弃强制锁 (mandatory lock),因为它使得其他没有持有锁的客户端不能访问被锁定的对象:

在 Chubby 中,请求任意模式的锁都需要写权限,因而一个无权限的读者不能阻止一个写者的操作。

在分布式系统中,锁是复杂的,因为通信经常是不确定的,并且进程可能会独立地失败。因此可能会出现这种情况,持有锁 L 的进程可能会发出请求 R,但随后就会失败了。另一个进程可能在 R 获取之前就获得了 L,并执行了一些操作。如果 R 稍后到达,它可能在没有 L 保护的情况下被执行,并且可能对不一致的数据进行操作。接收消息顺序紊乱的问题已经被研究得很彻底:解决方案包括虚拟时间 (virtual time) 和虚拟同步 (virtual synchrony) 后者通过确保与每个参与者的观察一致的顺序处理消息,从而避免了这个问题。

在现有的复杂系统中,将序列号引入到所有的交互中的成本是很高的。相反,Chubby 提供了一种方法,通过这种方法,序列号只被引入到那些使用锁的交互中。在任何时候,锁的持有者都可以请求一个 sequencer,这是一个不透明的字节串,描述锁在刚获取后的状态。它包含锁的名称、获取锁的模式(独占或共享)以及锁的生成号 ( generation number)。如果客户端希望它的操作受到锁的保护,那么它就会将 sequencer 传递给服务器(例如文件服务器)。接收服务器要做的工作是检测 sequencer 是否仍然有效并具有适当的模式;如果不是,则应拒绝请求。可以根据服务器的 Chubby 缓存来检查 sequencer 的有效性,如果服务器不希望维护与 Chubby 的会话,也可以根据服务器观察到的最近的 sequencer 来检查。sequencer 机制只需要向受影响的消息添加一个字符串,并且很容易向我们的开发人员解释。

虽然我们发现 sequencer 使用简单,但重要的协议发展缓慢。因此,Chubby 提供了一种不完美但更简单的机制,以减少向不支持 sequencer 的服务器发送延迟或重新排序请求的风险。如果一个客户端以正常的方式释放了一个锁,那么其他客户端就可以立即使用这个锁。但是,如果锁因为持有者停止工作或不可访问而变为空闲状态,则锁服务器将在一段被称为锁延迟 (lock-delay) 的时间段内阻止其他客户端请求锁。客户端可以指定任何锁延迟(目前上限是一分钟);这个限制可以防止错误的客户端使锁(以及一些资源)在长时间内不可用。虽然不完美,但锁延迟保护未修改的服务器和客户端免受消息延迟和重启造成的日常问题。

2.5 Events

Chubby 客户端在创建句柄时可能订阅一系列事件。这些事件通过来自 Chubby 库的向上调用被异步传递到客户端。活动包括:

事件是在相应的操作发生之后被传递的。因此,如果客户端被告知文件内容已经更改,那么它随后读取文件时,保证能看到新数据(或最近的数据)。

上面提到的最后两种事件很少用到,事后想来,可以忽略不计。例如,在 Primary 选举之后,客户端通常需要与新的 Primary 进行通信,而不是简单地知道 Primary 的存在;因此,它们会等待 Primary 将地址写入文件的文件修改事件。锁冲突事件在理论上允许客户端缓存其他服务器上的数据,使用 Chubby 锁来维护缓存一致性。一个冲突的锁请求将会告诉客户端结束使用与锁相关的数据:它将结束进行等待的操作、将修改刷新到原来的位置 (home location)、丢弃缓存的数据并释放锁。到目前为止,还没有人采用这种方式。

2.6 API

客户端将一个 Chubby 的句柄视为一个指向支持各种操作的不透明结构的指针。句柄仅由 Open() 创建,Close() 销毁。

Open() 打开指定的文件或目录以生成句柄,类似于 UNIX 文件描述符。只有这个调用使用节点名;其他的调用都在句柄上操作。

相对于现有的目录句柄计算名称;库提供了一个始终有效的 "/" 句柄。目录句柄避免了在包含许多抽象层的多线程程序中使用程序范围内的当前目录的困难 (Directory handles avoid the difficulties of using a program-wide current directory in a multi-threaded program that contains many layers of abstraction)。

客户端提供多种选项:

Close() 关闭打开的句柄。不允许进一步使用该句柄。这个调用不会失败。一个相关的调用 Poison() 会导致句柄上的未完成操作和后续操作失败,而不关闭它;这允许客户端取消其他线程发出的 Chubby 调用,而不必担心释放它们访问的内存。

作用于句柄的主要调用有:

如果在创建句柄之后删除了节点,即使随后重新创建了文件,调用也会失败。也就是说,句柄与文件实例相关联,而不是与文件名相关联。Chubby 可能在任意的调用上使用访问控制,但总是检查 Open() 调用(参见 2.3)。

除了调用本身所需的任何其他参数外,上面的所有调用都使用一个操作参数。这个操作参数保存可能与任何调用相关联的数据和控制信息。特别是通过操作参数,客户可以:

客户端可以使用此 API 执行以下 Primary 选举:所有潜在的 Primary 选举都打开锁文件并尝试获取锁。其中一个成功并成为 Primary ,而其他的作为复制品。Primary 使用 SetContents() 将其标识写入锁文件,以便客户端和副本能够找到它,这些副本使用 GetContentsAndStat() 读取文件,可能是响应文件修改事件。理想情况下,Primary 通过 GetSequencer() 取得一个序号,然后将其传递给与之通信的服务器;它们应该用 CheckSequencer() 确认它仍然是 Primary。锁延迟可用于无法检查序号的服务。

2.7 Cache

为了减少读流量,Chubby 客户端将文件数据和节点元数据(包括文件缺失)缓存在内存中的一个一致的写缓存中。缓存由下面描述的租约机制维护,并通过 Master 发送的失效操作维护一致性,Master 保存每个客户端可能缓存的数据的列表。该协议确保客户端要么看到一致的 Chubby 状态,要么看到错误。

当要更改文件数据或元数据时,修改将被阻塞,而 Master 将数据的失效通知发送给可能已缓存数据的每个客户端;这个机制位于 KeepAlive RPC 之上,下一节将对此进行更详细的讨论。在收到无效通知时,客户端刷新无效状态并通过发出下一个 KeepAlive 调用进行确认。只有在服务器知道每个客户端都将这些缓存失效之后,修改才会继续进行,这可能是因为客户端确认了失效,也可能是因为客户端允许其缓存租约过期。

只需要进行一轮失效操作,因为 Master 在缓存过期信号没有确认期间将这个节点视为不可缓存的。这种方法允许读取总是被无延迟地处理;这很有用,因为读的数量远远超过写的数量。另一种方法是在失效期间阻止访问节点的调用;这将减少过度渴望的客户端在失效期间用未完成的访问轰炸 Master 的可能性,代价是偶尔的延迟。如果这是一个问题,人们可能会想采用一种混合方案,在检测到过载时切换处理策略。

缓存协议很简单:它在更改时使缓存的数据失效,并且永远不会更新它。它只是简单的更新而不是失效,但是只更新的协议可能会无理由地低效;访问文件的客户端可能会无限期地接收更新,从而导致大量不必要的更新。

尽管提供严格一致性的开销很大,我们还是拒绝了较弱的模型,因为我们觉得程序员会发现它们更难使用。类似地,像虚拟同步 (virtual synchrony) 这种要求客户端在所有的消息中交换序号的机制,在一个有多种已经存在的通信协议的环境中也被认为是不合适的。

除了缓存数据和元数据之外,Chubby 客户端还缓存打开的句柄。因此,如果客户端打开了它之前打开的文件,那么只有第一个 Open() 调用必然会导致 RPC 到达主机。这种缓存在一些次要的方面受到限制,因此它不会影响客户端观察到的语义:临时文件上的句柄在被应用程序关闭后,不能再保留在打开状态;而容许锁定的句柄则可被重用,但是不能由多个应用程序句柄并发使用。最后的这个限制是因为客户端可能利用 Close() 或者 Poison() 的边际效应:取消正在进行的向 Master 请求的 Accquire() 调用。

Chubby 的协议允许客户端缓存锁——也就是说,持有锁的时间比严格要求的长,希望它们可以被同一个客户端再次使用。如果另一个客户端请求了一个冲突锁,则事件通知锁持有者,这允许锁持有者只在别的地方需要这个锁时才释放锁。

2.8 Sessions and KeepAlives

Chubby 会话是 Chubby cell 和 Chubby 的客户端之间的一种关系;它存在一段时间,由定期的握手来维持,这种握手被称为 KeepAlive。除非 Chubby 客户端通知 Master ,否则客户端的句柄、锁和缓存的数据都是有效的,前提是它的会话仍然有效。(然而,会话维持的协议可能要求客户端确认一个缓存过期信号以维持它的会话,请看下文)。

一个客户端在第一次联系一个 Chubby cell 的 Master 时请求一个新的会话。它显式地结束会话,或者在它终止时,或者在会话处于空闲状态时(一分钟内没有打开句柄和调用)。

每个会话都有一个相关的租期——一段延伸到将来的时间,在此期间, Master 保证不会单方面终止会话。间隔的结束被称作租期到期时间 (lease timeout)。 Master 可以自由地向未来延长租期到期时间,但可能不会在时间上往回移动。

在三种情形下, Master 延长租期到期时间:在创建会话时、 Master 故障恢复时(见下面)以及响应来自客户端的 KeepAlive RPC 时。在接收到 KeepAlive 时, Master 通常会阻塞这个 RPC(不允许它返回),直到客户端之前的租期接近到期。 Master 稍后允许 RPC 返回客户端,并将新的租约超时通知客户端。 Master 可以将超时时间延长任意数量。默认的延伸是 12s,但是一个过载的 Master 可能使用更高的值来减少它必须处理的 KeepAlive 调用的数量。在收到之前的回复后,客户端立即启动一个新的 KeepAlive。这样,客户端确保在 Master 上几乎总是阻塞一个 KeepAlive 调用。

除了扩展客户端的租期外,KeepAlive 的回复还用于将事件和缓存失效发送回客户端。 Master 允许一个 KeepAlive 在有事件或者缓存过期需要递送时提前返回。在 KeepAlive 应答上搭载事件可以确保客户端在不确认缓存失效的情况下无法维护会话,并导致所有 Chubby 的 RPC 从客户端流向 Master 。这样既简化了客户端,也使得协议可以通过只允许单向发起连接的防火墙。

客户端维护一个本地租约超时,这是 Master 租约超时的保守的近似值。它跟 Master 的租期过期不一样,是因为客户端必须在两方面做保守的假设。一是 KeepAlive 花在传输上的时间,一是 Master 的时钟超前的度;为了保持一致性,我们要求服务器的时钟频率相对于客户端的时钟频率,不会快于某个常数量。

如果客户端的本地租约超时过期,它将不确定 Master 是否已终止了它的会话。客户端清空并禁用其缓存,我们称它的会话处于危险之中。客户端等待一个称为宽限期的间隔,默认为 45 秒。如果客户端和 Master 在客户端的宽限期结束之前成功 KeepAlive,则客户端将再次启用其缓存。否则,客户端假定会话已经过期。这样做是为了使 Chubby API 调用不会在一个 Chubby cell 变得不可访问时无限期阻塞;如果在通讯重新建立之前宽限期结束了,调用返回一个错误。

当宽限期开始时,Chubby 库可以通过危险事件通知应用程序。当会话在通信问题中幸存下来时,安全事件告诉客户端继续;如果会话超时,则发送一个过期事件。此信息允许应用程序在不确定其会话状态时暂停自身,并在问题被证明是暂时的情况下无需重新启动即可恢复。在启动开销很高的服务中,这在避免服务不可用方面可能是很重要的。

如果客户端持有节点上的句柄 H,而 H 上的任何操作由于关联的会话过期而失败,则 H 上的所有后续操作 ( Close() 和 Poison() 除外 ) 都将以相同的方式失败。客户端可以使用它来保证网络和服务器不可用时只导致操作序列的一个后缀丢失,而不是一个任意的子序列,从而允许使用最终写入将复杂的更改标记为已提交。

2.9 Fail-overs

当 Master 失败或丢失 Master 身份时,它将丢弃关于会话、句柄和锁的内存状态。会话租约的权威计时器在 Master 上运行,因此,在选出新的 Master 之前,会话租约计时器将停止;这是合法的,因为它相当于延长客户的租约。如果 Master 选举发生得很快,客户端可以在本地(近似)租约到期之前联系新 Master 。如果选举需要很长时间,客户端就会清空他们的缓存,等待宽限期 (grace period),同时试图找到新的 Master 。因此,宽限期允许在超过正常租约超时的故障恢复间维护会话。

image-20210508182616486

上图显示了一个漫长的故障恢复事件中的事件序列,在这个事件中,客户端必须使用其宽限期来保存其会话。时间从左到右递增,但时间不是按比例递增的。客户端会话租约以粗箭头显示,新旧 Master (上面的 M1-3) 和客户端(下面的 C13) 都是这样看的。向上的箭头表示 KeepAlive 请求,向下的箭头表示应答。原始的 Master 为客户端提供了会话租赁 M1,而客户端则有一个保守的近似 C1。 Master 承诺在通过 KeepAlive reply 2 通知客户前租赁 M2;客户端能够扩展其对租约 C2 的视图。原 Master 在应答下一个 KeepAlive 之前死掉了,过了一段时间后另一个 Master 被选出。最终客户端的近似租约 (C2) 到期。然后客户端刷新它的缓存并为宽限期启动一个计时器。

在此期间,客户端无法确定其租约在 Master 处是否已经到期。它不会破坏它的会话,但它会阻止所有应用程序对其 API 的调用,以防止应用程序观察到不一致的数据。在宽限期开始时,Chubby 库向应用程序发送一个危险事件,允许它暂停自己,直到确定其会话的状态。

最终,新的 Master 选举成功了。 Master 最初使用的是一个保守的近似 M3 的会话租约,它的前身可能已经为客户端提供了这个租约。从客户端到新 Master 的第一个 KeepAlive 请求 (4) 被拒绝,因为它的 Master 代数不正确(下面详细描述)。重试请求 (6) 成功,但通常不会进一步扩展主租约,因为 M3 是保守的。但是,应答 (7) 允许客户端再次延长其租约 (C3),并可选地通知应用程序其会话不再处于危险中。因为宽限期足够长,可以覆盖租赁 C2 结束到租赁 C3 开始的这段时间,客户端看到的只是延迟。如果宽限期小于这个间隔,客户端将放弃会话并向应用程序报告失败。

一旦客户端联系了新 Master ,客户端库和 Master 就会合作向应用程序提供没有发生故障的假象。为了实现这一点,新 Master 必须重构前一个 Master 在内存中的状态的保守近似值 (conservative approximation)。这部分是通过读取磁盘上稳定存储的数据(通过普通的数据库复制协议进行复制),部分是通过从客户端获取状态,部分是通过保守的假设 (conservative assumptions) 实现的。数据库记录每个会话、持有的锁和临时文件。

新选出的 Master 过程如下:

  1. 它首先选择一个新的代编号(epoch number),客户端需要在每次调用时显示它。 Master 拒绝使用旧的 epoch number 的客户端调用,并提供新的 epoch number。这可以确保新 ster 不会响应发送给前一个 Master 的旧包,即使是在同一台机器上运行的包。
  2. 新 Master 可以响应 Master 位置请求,但不首先处理与会话相关的传入操作。
  3. 它为记录在数据库中的会话和锁构建内存中的数据结构。会话租期被扩展到前一个 Master 可能使用的最大限度。
  4. Master 现在允许客户端执行 KeepAlives,但不允许执行其他与会话相关的操作。
  5. 它向每个会话发出故障恢复事件;这将导致客户端刷新它们的缓存(因为它们可能错过了失效),并警告应用程序其他事件可能已经丢失。
  6. Master 一直等待,直到每个会话确认故障恢复事件或让其会话过期。
  7. Master 允许所有操作继续进行。
  8. 如果客户端使用在故障恢复之前创建的句柄(根据句柄中序列号的值确定),则 Master 将在内存中重新创建句柄的表示,并执行调用。如果重新创建的句柄关闭,主句柄将把它记录在内存中,这样就不能在 Master epoch 中重新创建它;这确保延迟的或重复的网络包不会意外地重新创建一个关闭的句柄。一个有问题的客户端能在未来的时间中重建一个已关闭的句柄,但倘若该客户端已经有问题的话,则这样不会有什么危害。
  9. 在一段时间之后(比如一分钟), Master 删除没有打开的文件句柄的临时文件。在故障恢复后的这段时间内,客户端应该刷新临时文件的句柄。这种机制有一个不幸的后果,如果文件上的最后一个客户端在故障恢复间丢失了会话,临时文件可能不会立即消失。

与系统的其他部分相比,故障恢复代码的执行频率要低得多,因此读者会毫不惊讶地发现,故障恢复代码是有趣 bug 的丰富来源。

2.10 Database implementation

Chubby 第一版使用带复制的 Berkeley DB 版本作为它的数据库。Berkeley DB 提供了 B-tree,它可以将字节字符串键映射到任意的字节字符串值。我们设置了一个按照路径名称中的节数排序的键比较函数,这样就允许节点用它们的路径名作为键,同时保证兄弟节点在排序顺序中相邻。因为 Chubby 不使用基于路径的权限,所以只需在数据库中进行一次查询,就可以对每个文件进行访问。

Berkeley DB 使用分布式一致性协议在一组服务器上复制其数据库日志。一旦 Master 租约被添加,这就与 Chubby 的设计相匹配,使得实现变得简单。

虽然 Berkeley DB 的 B-tree 代码使用广泛且成熟,但是复制代码是最近添加的,并且用户较少。维护者必须优先维护和改进他们的最受欢迎的产品特性。虽然 Berkeley DB 的维护者解决了我们遇到的问题,但是我们觉得使用复制代码会使我们承担更多的风险。因此,我们使用类似于 Birrell 等人的设计的提前写日志和快照来编写一个简单的数据库。与前面一样,数据库日志使用分布式一致性协议在副本之间分布。Chubby 很少使用 Berkeley DB 的特性,所以这次重写使得整个系统变得非常简单;例如,虽然我们需要原子操作,但是我们不需要通用事务。

2.11 Backup

每几个小时,Chubby cell 的主节点将快照写到不同大楼的 GFS 文件服务的数据库中。

2.12 Mirroring

Chubby 允许将文件集合从一个 cell 镜像到另一个 cell。镜像非常快,因为文件很小,而且如果文件被添加、删除或修改,事件机制会立即通知镜像处理相关代码。如果没有网络问题,变化会一秒之内便在世界范围内的很多个镜像中反映出来。如果无法访问镜像,则镜像将保持不变,直到恢复连接为止。然后通过比较校验和来识别更新的文件。

镜像最常用来将配置文件复制到分布在世界各地的各种计算集群。一个名为 global 的特殊 cell 包含一个子树 /ls/global/master,该子树 /ls/cell/slave 被镜像到其他每个 Chubby 的 cell 中。global cell 是特殊的,因为它的五个副本位于世界上分布广泛的地方,所以它几乎总是可以从从大部分国家/地区访问。

从 global cell 中镜像出的文件中包括 Chubby 自己的访问控制列表、各种文件(其中 Chubby cell 和其他系统向我们的监控服务显示它们的存在)、允许客户端定位大数据集(如 Bigtable cell)的指针以及其他系统的许多配置文件。

3. Mechanisms for scaling(略)

3.1 Proxies

3.2 Partitioning

4. Use, surprises and design errors

4.1 Use and behavior

4.2 Java Clients

4.3 Use as a name Service

尽管 Chubby 被设计为一个锁服务,但我们发现它最流行的用法是作为名称服务器。

在常规的 Internet 命名系统 (DNS) 中,缓存是基于时间的。DNS 条目有生存时间 (TTL),如果在此期间没有刷新 DNS 数据,则将丢弃这些数据。通常,选择一个合适的 TTL 值是很简单的,但是如果需要立即替换失败的服务,TTL 会变得很小,以至于使 DNS 服务器超载。

例如,我们的开发人员经常运行涉及数千个进程的任务,并且每个进程之间相互通信,这导致了二次级的 DNS 查询。我们可能希望使用 60 秒的 TTL;这将允许行为不端的客户端被替换,而不会有过多的延迟,并且在我们的环境中不会被认为是一个不合理的短替换时间。在这种情况下,要维护单个任务的 DNS 缓存(最小为 3000 个客户端),需要每秒 15 万个查询(相比之下,一个 2-CPU 2.6GHz 的 Xeon DNS 服务器每秒可以处理 5 万个请求)。更大的任务产生更恶劣的问题,并且多个任务可能同时执行。在引入 Chubby 之前,我们的 DNS 负载的波动性是 Google 面临的一个严重问题。

相比之下,Chubby 的缓存使用显示地失效 (invalidations),因此恒定速率的会话 KeepAlive 请求可以在没有更改的情况下在客户端上无限期地维护任意数量的缓存条目。一个 2-CPU 2.6GHz 的 Xeon Chubby Master 可以处理与它直接通信的 9 万个客户端(没有代理);这些客户端包括了具有上文描述过的那种通讯模式的庞大任务。在不逐个轮询每个名称的情况下提供快速名称更新的功能非常有吸引力,以至于现在 Google 的大部分系统都由 Chubby 提供名字服务。

尽管 Chubby 的缓存允许一个单独的 cell 能承受大量的客户端,但负载峰值仍然是一个问题。当我们第一次部署基于 Chubby 的名称服务时,启动一个 3000 个进程任务(从而产生 900 万个请求)可能会让 Chubby Master 崩溃。为了解决这个问题,我们选择将名称条目分组成批,这样一次查询就可以返回并缓存作业中大量相关进程(通常为 100 个)的名称映射。

Chubby 提供的缓存语义要比名字服务需要的缓存语义更加精确;名称解析只需要及时通知,而不需要完全一致。因而,这里有一个时机,可以通过引入特别地为名字查找设计的简单协议转换服务器,来降低 Chubby 的负载。假如我们预见到将 Chubby 用作名字服务的用法,我们可能选择实现完整的代理,而不是提供这种简单但没有必要的额外的服务器。

还有一个协议转换服务器:Chubby 的 DNS 服务器。这使得存储在 Chubby 中的命名数据对 DNS 客户端可用。这种服务器很重要,它既能减少了 DNS 名字到 Chubby 名字之间的转换,也能适应已经存在的不能轻易转换的应用程序,例如浏览器。

4.4 Problems with fail-over

4.5 Abusive clients

4.6 lessons learned(经验教训)

在这里,我们列出了经验教训,以及如果有机会,我们可能会做的各种设计更改:

开发者极少考虑可用性。 我们发现开发者极少考虑失败的可能性,并倾向于认为像 Chubby 这样的服务好像总是可用的。例如,我们的开发人员曾经构建了一个系统,该系统使用了数百台机器,在 Chubby 选出新 Master 时,启动恢复过程需要几十分钟。这将单个故障的后果在时间和受影响的机器数量上都放大了 100 倍。我们希望开发人员为短时间的中断做好计划,以便这样的事件对他们的应用程序影响很小或没有影响。这是第 2.1 节讨论的粗粒度锁的参数之一。

开发人员也没有意识到服务启动与应用程序可用之间的区别。例如,global Chubby cell 几乎总是处于上升状态,因为同时处于下降状态的数据中心很少超过两个。但是,对于给定的客户端,其观察到的可用性通常低于客户端的局部 Chubby cell 的观察到的可用性。首先,本地 cell 不太可能与客户端分区,其次,虽然本地 cell 可能经常由于维护而停机,但是相同的维护直接影响客户端,所以客户端不会观察到 Chubby 的不可用性。

我们的 API 选择也会影响开发人员处理 Chubby 停机的方式。例如,Chubby 提供了一个事件,允许客户端检测 Master 故障恢复何时发生。目的是让客户端检查可能的更改,因为其他事件可能已经丢失。不幸的是,许多开发人员选择在收到这个事件时关闭他们的应用程序,从而大大降低了系统的可用性。我们可以更好地发送冗余的"文件更改"事件,甚至确保在故障恢复间没有丢失事件。

目前,我们使用三种机制来防止开发人员对 Chubby 的可用性过于乐观,特别是 global cell 的可用性。首先,正如前面提到的,我们审查了项目团队计划如何使用 Chubby ,并建议他们不要使用那些将其可用性与 Chubby 紧密联系在一起的技术。

其次,我们现在提供执行一些高级任务的库,这样开发人员就可以自动地从中断中隔离出来。第三,我们使用每次 Chubby 停机的事后分析作为一种方法,不仅可以消除 Chubby 和我们的操作过程中的 bug,而且还可以降低应用程序对 Chubby 可用性的敏感性——这两种方法都可以提高系统的整体可用性。

可以忽略细粒度锁定的内容在 2.1 节的末尾,我们概述了一个服务器的设计,客户端可以运行该服务器来提供细粒度锁定。到目前为止,我们还不需要编写这样的服务器,这可能令人感到惊讶;我们的开发人员通常发现,为了优化他们的应用程序,他们必须删除不必要的通信,这通常意味着找到一种使用粗粒度锁定的方法。

糟糕的 API 选择通常会带来意想不到的影响,我们的 API 发展得很好,但有一个错误很明显。我们取消长时间运行的调用的方法是 Close() 和 Poison() RPC,它们也会丢弃句柄的服务器状态。这可以防止获取锁的句柄被共享,例如被多个线程共享。我们可以添加一个 Cancel() RPC 来允许更多地共享打开的句柄。

RPC 的使用影响传输协议 KeepAlives 被用于刷新客户端的会话租约,也用于将事件和缓存失效从 Master 传递给客户端。这个设计有自动的符合预期的效应:一个客户端不能在没有应答缓存过期的情况下刷新会话状态。

这似乎很理想,除了这样会在传输协议的选择中引入紧张情形以外。TCP 的拥塞时回退 (back off) 策略不关心更高层的超时,例如 Chubby 的租期,因此基于 TCP 的 KeepAlive 在发生高网络拥塞时导致许多丢失的会话。我们被迫通过 UDP 而不是 TCP 发送 KeepAlive RPC;UDP 没有拥塞避免机制,因此我们只有当高层的时间界限必须满足时才使用 UDP 协议。

我们可以使用一个附加的基于 TCP 的 GetEvent() RPC 来扩展协议,它将用于在正常情况下通信事件和失效,使用的方式与 KeepAlives 相同。KeepAlive 回复仍然包含未确认事件的列表,因而事件最终都将被应答。

Chubby 基于很多优秀的 idea,cache 设计受到分布式文件系统的启发。session 和 cache 的 token 类似于 Echo 系统中的行为;session 减少了租约的开销。提供一个通用的 lock services 可以在 VMS 期刊 中被发现。像 cache 模型,Chubby 的 API 基于文件系统模型,包括文件系统类似的名字空间的 idea

Chubby 与 Echo 或 AFS 等分布式文件系统在性能和存储方面有所不同:客户端不会读取、写入或存储大量数据,除非数据被缓存,否则它们不会期望高吞吐量甚至低延迟。他们确实期望一致性、可用性和可靠性,但是当性能不那么重要时,这些属性更容易实现。因为 Chubby 的数据库很小,我们可以在线存储它的许多副本(通常是五个副本和少数备份)。我们每天进行多次完全备份,通过数据库状态的校验和,我们每隔几个小时就相互比较副本。正常的文件系统性能和存储需求的弱化使我们能够用一个 Chubby Master 为成千上万的客户端提供服务。我们通过提供一个中心点,许多客户端在这个中心点共享信息和协同活动,解决了一类我们的系统开发人员面对的问题。

各种文献描述了大量的文件系统和锁服务器,所以不可能做一个彻底的比较。所以我们提供细节:我们选择与 Boxwood 的锁服务器比较,因为它是最近设计的,它也旨在在松耦合的环境中运行,但其设计在很多方面不同于 Chubby,一些设计是有趣的,一些设计是因为系统的差异所决定的。

Chubby 在单个服务中实现锁、可靠的小文件存储系统以及会话/租赁机制。相反,Boxwood 将它们分为三个:锁服务、Paxos 服务(状态的可靠存储库)和故障检测服务。Boxwood 系统本身使用这三个组件,但另一个系统可以独立使用这些构件。我们怀疑这种设计上的差异源于目标受众的不同。Chubby 的目标受众和应用程序是多样化的;它的用户范围从创建新分布式系统的专家到编写管理脚本的新手。对于我们的环境,使用熟悉的 API 的大型共享服务似乎很有吸引力。相比之下,Boxwood 提供了一个工具包(至少在我们看来是这样),它适用于少数更成熟的开发人员,他们从事的项目可能共享代码,但不需要一起使用。

在许多情况下,Chubby 提供了比 Boxwood 更高级别的接口。例如,Chubby 组合了锁和文件名空间,而 Boxwood 的锁名称是简单的字节序列。Chubby 客户端默认缓存文件状态;Boxwood 的 Paxos 服务的客户端可以通过锁服务实现缓存,但是很可能会使用 Boxwood 本身提供的缓存。

这两个系统有明显不同的默认参数,为不同的期望而选择:每个客户端每 200 毫秒与每个 Boxwood 故障检测器联系一次,超时为 1; Chubby 的默认租赁时间是 12 秒,每隔 7 秒交换一次 KeepAlives。Boxwood 的子组件使用两个或三个副本来实现可用性,而我们通常每个 cell 使用五个副本。然而,这些选择本身并没有表明深层次的设计差异,而是指出了这些系统中的参数必须如何调整以适应更多的客户端机器,或者机架与其他项目共享的不确定性。

一个更有趣的区别是引入了 Chubby 的宽限期,这是 Boxwood 所缺乏的。(回忆一下,宽限期允许客户在长时间的 Master 宕机期间不丢失会话或锁。Boxwood 的 "宽限期" 相当于 Chubby 的 "会话租赁",是一个不同的概念。) 同样,这种差异是由于对两个系统的规模和失败概率的期望不同造成的。虽然 Master 故障恢复很少见,但是丢失的 Chubby 锁对客户来说代价是很昂贵的。

最后,这两个系统中的锁用于不同的目的。Chubby 的锁重量更重,需要记序器来保证外部资源的安全,而 Boxwood 锁重量更轻,主要用于 Boxwood 内部。

6. Summary

Chubby 是一个分布式锁服务,并且可以用做名字服务以及配置服务。

设计基于一些良好的 idea:共识协议提供了容错能力,一致性客户端 cache 减少了服务负载同时保留了简单的语义,及时的更新通知,熟悉的文件系统接口。我们使用 cacheing, protocol-conversion servers, simple load adaptation 使得一个 Chubby 实例可以服务成千上万 client。并且可以通过 proxies 和 partitioning 扩展。

Chubby 成为 Google 的主要名字服务;是 MapReduce 的约定机制;是 GFS 和 BitTable 的选主组件;是高可用文件的标准组件,例如访问控制。