MIT 6.824 - The Google File System
介绍
在 MapReduce: Simplified Data Processing on Large Clusters 中提到,MapReduce
任务的输入输出构建在 GFS
之上,GFS
是 Google
内部开发的一个分布式文件系统,用于应对大型的数据密集型应用。在 GFS
之前,业界已经存在了一些分布式文件系统的实现,为什么 Google
还要再实现一套?因为基于 Google
内部应用的特点,有别于传统的分布式文件系统,除了考虑性能、可扩展性、可靠性和可用性之外,GFS
在设计时还考虑了以下三个方面:
- 组件异常经常出现而不是偶尔出现。
GFS
构建在成百上千台廉价的机器上,并同时被同等数量的客户端访问。在这个量级规模下,在任何时候某个组件都有可能发生异常以及发生异常后无法自动恢复。这里的异常不只包括硬件的异常,还包括软件的异常以及人为的错误。因此,对于异常的监控和检测,容错,以及异常的自动恢复是系统不可或缺的一个部分。 - 以传统的分布式文件系统的视角来看,
Google
要处理的都是大文件,几个G的文件随处可见。 - 对于
Google
的数据应用来说,大部分对文件的写操作是追加操作而不是覆盖操作。对文件的随机写几乎可以说是不存在。文件一旦写入完成后,基本上就不会被再次修改,剩下的都是读操作,且大部分场景下是顺序读。MapReduce
系统就是这个应用场景的典型例子,map
任务持续顺序追加生成中间结果文件,reduce
任务不断的从中间结果文件中顺序读取。根据这个特点,追加写就成为了系统性能优化以及写操作原子性保证的主要设计方向。 - 将应用程序和文件系统的
API
协同设计有利于增加系统的灵活性。例如,GFS
提供了原子性的追加写操作,多个客户端可以并发追加写,而无需在应用程序层面进行加锁。
设计
假设
本节主要描述了 GFS
设计的几个出发点:
- 整个系统构建在一批廉价且经常出现异常的硬件上,所以设计上必须考虑对异常的监测和容错,以及异常发生后能够恢复到一个合适的程度。
- 需要能够高效管理几个G的大文件,系统也支持存储小文件,不过不会对其作特殊的优化。
- 系统需要支持两种文件读取方式:大量的流式读和少量的随机读。在大量的流式读场景下,每次读取大小一般在几百KB,或者1MB或更多。来自同一个客户端的连续读取一般是读取文件的某一段连续内容。而少量的随机读一般是在文件的任意位置读取几KB。对于性能敏感的应用程序来说,一般会将多个随机读根据读取的位置排序后批量读取,避免磁盘来回的随机寻址。
- 系统需要支持大量连续的文件追加写操作。对文件追加写的单次大小一般和流式读的单次大小差不多。文件一旦写入完成后就几乎不会再被修改。系统同样需要支持少量的随机写,不过和少量的随机读类似,随机写也不强调性能。
- 当有多个客户端对同一个文件进行追加写的时候,系统必须能高效的实现清晰明确的执行语义,例如是保证每个客户端至少成功追加写一次,还是至多一次或者其他。
GFS
中的文件经常会充当某个生产者消费者场景下的缓冲队列,一边会有多个客户端不断往文件中追加写,一边也会有一个客户端同时进行流式读取(或在写入完成后读取),所以系统必须保证追加写操作的原子性。 - 整个系统的吞吐的重要性大于延迟,大部分
Google
的应用程序主要是大批量的文件处理,只有少量的程序会对单次的读或写有性能要求,所以系统的吞吐是第一位。
接口
虽然 GFS
并未完全实现标准的文件系统 API
,如 POSIX
,但仍提供了常见的文件系统接口,如创建(create
)、删除(delete
)、打开(open
)、关闭(close
)、读取(read
)和写入(write
)文件。类似于本地文件系统,文件在 GFS
内通过树状目录的形式组织,每个文件通过文件路径来唯一确定,不过这里的目录是逻辑上的概念,并不会映射到某个物理文件系统目录上。
除此之外,GFS
还支持快照(snapshot
)和追加写(record append
)的操作。快照能够低成本的复制一个文件或一个目录。追加写允许多个客户端并发的对同一个文件追加写入,并保证每个客户端写入的原子性。
架构
一个 GFS
集群由一个主节点(master
)和多个 chunkserver
组成,并被多个客户端(client
)访问。不管是主节点还是 chunkserver
或客户端,都运行在廉价的 Linux
机器上。可以简单的将 chunkserver
和客户端运行在同一台机器上,如果系统资源允许或者能够容忍客户端代码潜在的不可靠性的话。
每个文件在存入 GFS
时会被切分为固定大小的块(chunk
),每个 chunk
在创建时会被主节点分配一个全局不可变的64位 chunk handle
。chunkserver
将 chunk
保存在本地文件系统中,每个 chunk
对应着本地的一个 Linux
文件,客户端通过指定 chunk handle
和文件偏移范围来读取或者写入 chunk
。为了保证可靠性,每个 chunk
会复制到多台 chunkserver
上。GFS
默认为每个 chunk
生成3份副本,不过用户也可以为某些命名空间下的文件指定不同的副本数量。
主节点保存了全部的系统元数据,包括文件命名空间、访问控制信息、每个文件和对应 chunk
的映射、每个 chunk
所在的位置等。同时主节点还负责 chunk
的租约管理、不再使用的 chunk
的垃圾回收、chunkserver
间的 chunk
迁移等。主节点也会定期的向 chunkserver
发送心跳用于向 chunkserver
发送指令和收集 chunkserver
当前的状态。
GFS
的客户端代码会集成到用户应用程序中,它负责实现文件系统 API
以及和主节点、 chunkserver
通信来读取或写入文件。GFS
客户端通过主节点获取文件的元数据信息,然而文件的读取和写入都只和 chunkserver
通信,从而减少了主节点的负担。
不管是 GFS
客户端还是 chunkserver
都不会缓存文件数据。客户端缓存收益不大是因为 Google
大部分的应用程序是对大文件的流式读取或者文件内容过大无法被缓存。不考虑缓存简化了客户端和整个系统的实现,因为引入缓存就要考虑缓存一致性问题。不过客户端会缓存文件的元数据信息,例如某个 chunk
的位置信息。chunkserver
不缓存是因为 chunk
是作为 Linux
文件保存在本地文件系统中,操作系统本身已经提供了一层文件访问缓存,没有必要再加一层。
单主节点
单主节点同样简化了整个系统的设计,方便主节点高效管理 chunk
,因为所有需要的信息都保存在主节点内存中。为了避免对文件的读写使得主节点成为瓶颈,客户端读写文件时直接和 chunkserver
通信而不会经过主节点中转,不过在开始读写前,客户端会先和主节点通信获取需要的 chunk
对应的 chunkserver
列表,并将这个数据缓存一段时间来减少后续和主节点的通信。
结合下面的流程图我们来看一下一次读操作是如何执行的:
- 客户端根据固定的每个
chunk
的大小和想要读取的文件偏移位置,计算出chunk
的索引。 - 客户端将文件名和
chunk
的索引发给主节点,主节点收到请求后返回对应的chunk handle
和保存了该份chunk
的chunkserver
列表。 - 客户端收到主节点返回结果后,以文件名和
chunk
的索引组合作为键,将返回结果缓存。 - 客户端将
chunk handle
和想要读取的文件内容偏移范围发给其中一台chunkserver
,一般来说,客户端会选择距离最近的chunkserver
,由于缓存了chunkserver
列表信息,后续对同一个chunk
的读请求就不需要再次和主节点通信,直到缓存过期或者文件被再次打开。 - 一般来说,客户端和主节点通信时会在一次请求中要求多个
chunk
的信息,主节点同样也可在一次响应中返回多个chunk
的信息,这也有利于减少客户端和主节点的通信次数。
chunk 大小
每个 chunk
的大小是一个关键的设计选择。GFS
的 chunk
大小为 64 MB
,远大于一般文件系统的数据块的大小。每个 chunk
以 Linux
文件的形式保存在 chunkserver
上,但其实际占用的大小是动态增长的,从而避免了大量的文件碎片(例如实际只需要十几K的文件却固定分配了 64 MB
的大小)。
那么,GFS
为什么要选择 64 MB
这样较大的数呢?主要是因为:
chunk
的大小越大,每个文件拆分成的chunk
的数量就越少,客户端需要读取或写入的chunk
数量也就越少,和主节点通信的次数也就越少。对于Google
的数据应用来说,大部分都是顺序读写,客户端和主节点交互的次数是线性的时间复杂度,减少chunk
的总个数有助于降低整个的时间复杂度。即使是对于少数的随机写,由于chunk
大小足够大,客户端也能够将TB级别的数据对应的所有chunk
的信息缓存起来。- 一个
chunk
的大小越大,那么客户端对其可操作次数就越多,客户端就可以和某个chunkserver
维持一段较长时间的TCP
连接,减少和不同的chunkserver
建立连接的次数。 - 主节点需要维护每个
chunk
对应的chunkserver
列表,这个也是个线性的空间复杂度,较大的chunk
大小能减少chunk
的总个数,从而减少元数据的大小,主节点就可以将所有的元数据放在内存中。
另一方面,即使将 chunk
的大小设置的较大,以及采用了懒分配的策略,也依然存在缺点。对于一个小文件来说,它可能只有几个甚至是一个 chunk
,如果这个文件被访问的频率较大,它就有可能成为热点数据,保存了对应的 chunk
的 chunkserver
就要承受更大的流量。不过在 Google
的实际应用场景中,热点数据并没有成为一个大问题,因为大部分的系统面向的是大文件的流式读取,流量能较平均的分发到各个 chunkserver
。
不过,Google
确实有遇到过一个热点数据问题,有个批处理系统会先将一个可执行文件写入到 GFS
中,这个可执行文件的大小只有一个 chunk
,然后所有客户端会同时读取这个可执行文件并执行,这就造成了几台 chunkserver
同时承接了大量的请求。Google
通过两个方面来解决这个问题,第一针对这个文件设置一个较大的副本数量,让更多的 chunkserver
来分散流量,即水平扩展;第二交替启动批处理系统的客户端,避免同一时间的大量请求。另一种长期的解决方案是在这种场景下允许客户端从其他已读取完毕的客户端那读取文件。
元数据
主节点主要保存了三类元数据:每个文件和 chunk
所属的命名空间、每个文件到对应所有 chunk
的映射、每个 chunk
对应的 chunkserver
列表。所有的元数据都保存在主节点的内存中,前两种元数据被修改时还会以日志的形式保存在本地日志文件中,并备份到其他服务器上。通过日志文件的方式使得主节点能够轻松的修改元数据,并且在主节点崩溃重启后能恢复数据,当然极端情况下主节点有可能没有保存最新的元数据到日志文件中就崩溃了,这里后文会有说明主节点会在持久化完成后才返回结果给客户端,所以客户端不会看到未持久化的元数据。主节点并不会对 chunkserver
列表进行持久化,而是在启动时主动拉取所有 chunkserver
的信息,以及每当一个新的 chunkserver
加入到集群中时,更新元数据,因为 chunkserver
是个动态更新的数据,即使持久化了也需要和当前实时的数据作比对。
数据结构
由于元数据保存在主节点内存中,所以涉及主节点的操作都是非常快的。另一方面,主节点也能够轻易的每隔一段时间遍历所有的元数据,这个主要有三个目的,第一是扫描不再需要的 chunk
进行垃圾回收;第二如果某个 chunkserver
失联了,能将其保存的 chunk
备份到其他 chunkserver
上;第三将某些流量失衡或者本地磁盘空间不够的 chunkserver
下的 chunk
转移到其他 chunkserver
下。
将元数据保存在内存中的一个缺陷是受限于主节点的内存容量,能够保存的 chunk
的元数据的个数是有限的,从而整个 GFS
的容量大小是有限的。不过在实践中,这个问题还没有成为瓶颈,每个 chunk
对应的元数据大小约小于64字节,由于 GFS
面向的主要是大文件,所以基本上每个文件也就最后一个 chunk
没有塞满,所以空间浪费较少。类似的,由于使用了前缀压缩,每个文件的命名空间元数据的大小也小于64字节。对于一个 128 GB
内存的主节点来说,假设全部用来保存 chunk
的元数据,则理论上保存的所有 chunk
的大小为 128 GB / 64 B * 64 MB = 128 PB
,虽然实际上元数据不只 chunk
一种,但整体上来说也能够维护 PB
级别的数据。
如果需要 GFS
支撑更大的容量,相比于将元数据全部保存在内存中所带来的的简洁、可靠、性能和灵活上的收益,扩展主节点的内存所需要的成本不值一提。
chunk
的保存位置
主节点不会持久化每个 chunk
对应的 chunkserver
列表,它会在启动时主动拉取所有的 chunkserver
信息。在主节点运行后,它可以通过和 chunkserver
的心跳来实时更新 chunkserver
的状态信息。
在最初的设计中,Google
的工程师试过将 chunk
和 chunkserver
的映射关系进行持久化,但是最终还是采用了更简洁的设计,即在主节点启动时主动拉取所有的 chunkserver
信息并在之后定期更新内存中的数据。这就消除了频繁的数据同步,毕竟在集群环境下,chunkserver
加入或者离开集群,修改主机名,发生异常或重启等操作会经常发生。
另一方面,只有 chunkserver
才真正知道自己是否拥有某个 chunk
,所以在主节点上持久化一份 chunk
和 chunkserver
的映射关系意义不大,因为这份数据很大概率是不一致的,毕竟 chunkserver
会发生异常然后失联或者运维重命名了一台 chunkserver
。
操作日志
操作日志记录了元数据的重要历史更新,它是 GFS
的关键。不仅因为它是元数据的唯一持久化备份,同时它也提供了系统在并发操作下各操作的执行顺序。各个版本的文件和其对应的 chunk
的操作记录都被唯一的标识在日志文件中。
所以操作日志必须保证可靠性存储,以及在元数据持久化完成之前不能将最新的元数据更新暴露给客户端。否则就有可能丢失最新的客户端操作,即使 chunkserver
还存活着。因此,GFS
会将操作日志备份在多台机器上,并且只有在所有的副本机器都持久化完成后才会返回结果给客户端。同时主节点会对操作日志进行批量持久化以降低频繁持久化对系统整体吞吐的影响。
当主节点崩溃重启后会通过重放操作日志来恢复崩溃前的状态,然而如果每次都从第一条日志开始重放,主节点崩溃重启到可用需要的时间会越来越久,因此当操作日志的大小增长到一定程度的时候,主节点会为当前的元数据创建一个检查点,当主节点崩溃恢复后,可以先加载最新的检查点数据,然后再重放在这个检查点之后生成的操作日志。检查点是一个类似于 B
树的数据结构,可以轻易的映射到内存数据结构中,并且方便根据文件的命名空间检索。这就加快了主节点崩溃恢复的速度和提高了系统的可用性。
因为构建检查点需要时间,所以在创建检查点时需要确保不影响正在进行的文件修改。主节点会先创建一个新的操作日志文件,然后由一个新的线程去创建检查点,这个线程会依据新的操作日志文件创建前的日志生成检查点。对于一个百万级别数量文件的系统来说,大概需要1分钟的时间创建检查点,检查点创建完成后同样会持久化到本地磁盘和副本机器上。
主节点崩溃恢复只需要最新完整的检查点文件以及后续的操作日志文件,在这之前的检查点文件和操作日志文件都可以删除,不过为了提高容错性还是会保留一部分文件。如果生成检查点的时候发生异常并不会影响崩溃恢复的正确性,因为恢复的代码会校验检查点文件的完整性并跳过损坏的检查点文件。
一致性模型
GFS
提供了弱一致性模型,在能较好的支撑 Google
内部各分布式应用的同时也兼顾了简洁和高效的实现。
GFS
的保证
文件命名空间的修改是原子的(例如创建一个文件)。对命名空间的修改会由主节点加锁执行,这就保证了修改的原子性和正确性,同时主节点的操作日志记录了这些修改的全局顺序。
而某块文件区域修改后的状态则取决于修改的类型,是否成功或失败,以及是否存在并发的修改。某块文件区域是一致的(consistent
)表示不管客户端从哪个 chunkserver
读取这块的数据,每个客户端看到的内容始终是相同的。某块文件区域是已定义的(defined
)表示经过一次修改后,首先这块文件区域是一致的,并且客户端读到的数据就是自己修改的。如果对某块文件区域的修改不受其他并发请求的客户端的影响,那么这块文件区域在修改成功后是已定义的(也是一致的),所有的客户端都能看到对应的修改。而如果有多个客户端并发的对同一块文件区域修改,那么最终的结果是未定义的,但是是一致的,所有的客户端读到的数据都是相同的,但是并不知道读到的数据是哪个客户端修改的,一般来说,最后这块文件区域的内容很可能是多个客户端并发修改后混合的结果。一次失败的修改会使得这块文件区域不一致(因此也是未定义的),不同的客户端在不同时间读取到的数据是不同的,因为多个 chunkserver
上保存的数据不一致。
对文件的修改包括在随机位置的写和在文件末尾的追加写两种,随机写指的是数据会写入到应用程序指定的某个文件偏移的位置,追加写指的是在并发的情况下能保证数据会原子性的至少一次追加写入到文件末尾,不过最后数据写入的实际偏移位置是由 GFS
来决定(相反的,一次常规的追加写指的是在客户端以为是文件末尾的地方写入数据。)。追加写完成后,系统会返回相应的偏移量给客户端,这个偏移量表示了某块已定义的文件区域的开始,对于当前客户端来说,这块区域的数据就是自己写入的,对于其他客户端来说,它们读到的数据也始终是相同的。不过,GFS
有可能在修改 chunk
时插入对齐数据或者重复的数据,例如现在有个追加写操作,chunkserver1
需要写入的偏移量位置是100,并且写入完成了,chunkserver2
需要写入的偏移量位置也是100,但是 chunkserver2
写入失败了,客户端会进行重试,那么 chunkserver1
会在偏移量101的地方再次写入相同的数据,但是由于之前 chunkserver2
没有写入成功,它的偏移量位置还是100,那么为了保证所有客户端根据偏移量读取到的数据是相同的,就需要先补齐 chunkserver2
偏移量位置100的数据,然后在偏移量位置101写入新的数据,如果这次所有 chunkserver
都写入成功了,那么就会把偏移量101返回给客户端,而不是100。所以我们看到,客户端想要保存的原始文件,和最终从 GFS
取回的文件数据并不是每个比特都一致的,存在某些文件区域数据不一致的情况。
当一系列文件修改执行完成后,被修改的文件区域保证了是已定义的,并且包含了最后一次修改的内容。GFS
通过两个方面来保证这一点:第一,对 chunk
的所有修改在所有 chunkserver
上的执行顺序是一样的;第二,通过 chunk
的版本号来识别所有版本落后的 chunkserver
,这些 chunkserver
有可能是因为在失联期间 chunk
内容发生了修改。对于版本号落后的 chunkserver
则不会参与 chunk
的修改并且主节点也不会将其作为有效的 chunkserver
返回给客户端,这些 chunkserver
所持有的 chunk
会尽早的被垃圾回收。
然而在前面提到,客户端从主节点获取某个 chunk
的 chunkserver
列表后,会在一段时间内将其缓存,如果这段时间内某个 chunkserver
包含的 chunk
的版本号落后了,那么客户端读到的数据会存在短暂的不一致,这个时间段就取决于客户端缓存的过期时间,以及客户端下次打开文件的时间,因为重新打开文件时客户端会从主节点重新拉取 chunkserver
的信息从而刷新了缓存。然而,鉴于大部分文件的修改是追加写,这里我理解可能在流式读的场景下,读完 chunk
的某段内容后会返回新的偏移量,而对于版本号落后的 chunkserver
来说,它返回的偏移量可能已经读过了,所以此时客户端知道这个 chunkserver
可能过期了,所以会尝试再次和主节点通信,从而获取新的 chunkserver
列表。
然而即使对文件的修改执行成功了,系统其他组件如硬件的异常也有可能导致文件损坏或摧毁。GFS
通过主节点和 chunkserver
的心跳来监测异常的机器,并通过校验和来验证 chunk
的数据是否损坏。如果出现了数据损坏或者某台 chunkserver
失联了,那么 GFS
会从其他有效的 chunkserver
那重新复制数据,来保证副本数量维持在指定的阈值上。所以,只有当某个 chunk
对应的 chunkserver
全都异常了,同时 GFS
还没来得及反应过来(一般来说是几分钟内)复制数据,chunk
才会发生永久丢失。即使在这种情况下,对于应用程序来说它看到的是不可用的状态,而不是数据损坏:应用程序收到的是明确的错误信息而不是损坏的数据。
最后,来看一下每种操作下的一致性保证:
- 随机写
- 串行执行成功:已定义(
defined
),在串行执行场景下,某个时间只会有一个客户端执行写入,客户端在执行成功后读取到的就是自己刚刚写入的,所以是已定义的。 - 并行执行成功:一致但是未定义(
consistent but undefined
),某个时间在并发场景下多个客户端写入的偏移范围可能重合,最后文件区域的数据可能是多个客户端写入混合后的产物,每个客户端写入后读取到的不一定是自己写入的,所以是未定义的,但由于写入成功,所以是一致的。 - 异常:不一致(
inconsistent
),写入失败时,有的chunkserver
可能写入成功,有的未成功,不同客户端读取同一个偏移量的数据就会不一致。
- 串行执行成功:已定义(
- 追加写
- 串行执行成功:已定义但是穿插着不一致(
defined, interspersed with inconsistent
),由于追加写至少写入一次的保证,一次追加写的成功背后可能包含着重试,所以在某些偏移量下各个chunkserver
上的chunk
的数据会不一致,但是追加写返回的是一个写入成功的偏移量,不会把不一致的偏移量返回,这个新的偏移量下的数据就是客户端自己写入的,且每个客户端读取这个偏移量的内容都是相同的,所以是已定义的。 - 并行执行成功:同上,追加写返回的偏移量是由
GFS
决定的,所以多个并发客户端追加写入不会相互覆盖。 - 异常:不一致(
inconsistent
),同随机写。
- 串行执行成功:已定义但是穿插着不一致(
对应用程序的影响
借助追加写、检查点、可自我校验和识别的数据写入,GFS
的应用可以较好的适应 GFS
的弱一致性模型。
在实际应用场景中,GFS
的应用基本是通过追加写而不是覆盖写来修改文件。在某个典型应用中,某个文件的内容完全由某个生产者写入,在写入完成后能原子性的将其重命名,或者周期性的为至今写入成功的数据建立检查点。检查点同时也可包含应用程序级别的校验和(不同于 GFS
的校验和,应用程序保存的数据对于 GFS
来说是一致的,但对于应用来说可能是不完整的)。对于读文件的消费者来说,它们只需要读取到最新的检查点即可,因为到最新的检查点的数据可以认为是已定义的(defined
),并可以通过校验和来验证文件数据的完整性。如上节所属,虽然追加写在失败时也会存在不一致的情况,但结合检查点的方式已经能较好的满足实际的业务场景。另外,追加写也远比随机写高效和健壮。借助检查点生产者可以在崩溃恢复后从检查点开始继续写入,消费者只根据检查点来读取数据,而不会越过检查点读到以应用的视角来说不完整的数据。
在另一个例子中,多个生产者并发的向某个文件进行追加写,追加写至少写入成功一次的保证使得每个生产者的写入都得以保留。不过,消费者在读取文件时就需要额外处理对齐数据和重复数据,每一条追加写可以看做一条记录,生产者在写入时可以附加一个校验和用于消费者校验数据的完整性,对于对齐数据或不完整的数据来说,它们必然没有校验和,因此消费者就可以跳过这些异常记录。另外,每一条记录都有一个唯一的标识符,重复的记录有着相同的标识符,如果消费者不能容忍重复的数据(例如消费者的代码没有做到幂等),则可以通过这个标识符来对数据去重。除了去重以外,上述的功能都已包含在客户端库中,无需应用端自行实现,从而使得在应用层面每一个消费者都能读到同一份数据(当然,可能会有一点重复数据)。
系统交互
在单主节点的设计下,GFS
尽可能的让主节点少参与到数据交互中,本节主要描述了客户端、主节点和 chunkserver
在数据修改、原子性的追加写和快照中的实现。
租约和修改的执行顺序
一次修改(mutation
)指的是修改了某个 chunk
的元数据或者内容。每个修改都会应用到该 chunk
的所有 chunkserver
上。在修改前,主节点会挑选某个 chunkserver
作为 primary
,为其分配一个租约(lease
)。对某个 chunk
的修改可能同时会有多个,所以 primary
会对所有的修改安排一个执行顺序,所有其他的 chunkserver
都会按照这个执行顺序应用修改。因此,从全局来看,对同一个 chunk
的修改的顺序首先取决于主节点分配租约的顺序,在某个租约有效期内的执行顺序,则取决于 primary
安排的执行顺序。
租约的设计是为了减少主节点协调的负担。一个租约初始设置了60秒的过期时间,不过如果在过期前该 chunk
还未完成修改,primary
可向主节点申请租约续期。这个申请可以附带在 chunkserver
和主节点的心跳监测中,而无需额外通信。不过有时候主节点可能会在租约有效期内回收租约(例如,某个文件正在重命名时主节点需要暂停所有的修改)。即使主节点和当前的 primary
失联了,主节点依然可以在该租约过期后安全的重新分配一个租约给新的 primary
。
同时,租约也避免了脑裂的问题,如果没有租约的时间限制,主节点先指定了一个 primary
,然而由于网络原因主节点认为这个 primary
失联了,就会重新分配一个 primary
,此时就有两个 chunkserver
认为自己是 primary
。而在租约过期前,主节点不会分配新的 primary
就保证了同一时间只有一个 primary
。
下图描述了一次随机写的执行流程:
- 客户端询问主节点当前持有租约的
primary
和其他的chunkserver
的地址,如果当前没有一台chunkserver
持有租约,则主节点会挑选一个primary
并分配租约。 - 主节点返回当前的
primary
和其他的chunkserver
(secondary
) 的地址。客户端收到响应后将其缓存供后续修改时使用,只有当primary
无响应或者primary
回复不再持有租约时,客户端才会再次询问主节点primary
的信息。 - 客户端将需要写入的数据发送给所有的
chunkserver
,这一步没有执行顺序的要求。每个chunkserver
收到数据后会将其暂存在一个LRU
缓存中直到该数据被取出或过期。从控制流角度来说,是由primary
向secondary
发送指令,而发送待写入的数据不关心谁是primary
,下文会说到这里GFS
将数据流和控制流进行解耦,基于网络的拓扑结构来实现数据的最优传输。 - 当所有
chunkserver
都收到了客户端的数据后,客户端会向primary
发送一个写入请求,这个请求中标记了之前发送的那份数据。primary
将该时段收到的所有修改请求设置一个串行的执行顺序,并对每一个修改分配一个执行编号,然后将修改写入到本地的chunk
中。 primary
将写请求分发给其他所有的secondary
,secondary
收到请求后根据执行编号同样将修改按照和primary
一样的执行顺序写入到自己的chunk
中。- 每个
secondary
写入完成后会回复primary
告知写入完成。 - 当
primary
收到所有secondary
的回复后,再回复给客户端告知写入成功。如果途中任何一个chunkserver
出现异常都会通知客户端,当发生异常时,可能primary
已经写入成功了,但是某个secondary
只写入成功一部分(如果是primary
写入异常,就不会分发写请求给其他所有的secondary
)。因此此次客户端请求就认为写入失败,多个chunkserver
间出现了数据不一致,此时客户端会进行重试,它会尝试重新执行第3步到第7步,如果尝试几次后依然失败,则会重新从第1步开始执行。
如果客户端一次随机写的数据量较大或者当前 chunk
的剩余空间无法容纳全部的数据则需要跨 chunk
写入,GFS
的客户端库会将一次写请求拆分为多个写请求处理。每个单独的写请求都遵循上述的流程执行,不过由于存在并发客户端写的问题,最终写入的数据有可能多个客户端间相互覆盖,不过由于每个 secondary
都按照相同的执行顺序写入成功,最终各个 chunkserver
上的数据都是相同的,这个也就是之前描述的一致但是未定义状态(consistent but undefined
)。
数据流
在前面提到,在第3步发送数据时,GFS
解耦了控制流和数据流以更有效率的利用网络。在控制流下,请求从客户端发送到 primary
,再由 primary
分发给其他所有的 secondary
,在数据流下,GFS
会选择最优的路径以接力的方式在各个 chunkserver
间传递数据。目的是为了充分的利用每台机器的网络带宽,同时避免网络瓶颈和高延迟的链路,从而降低推送全部数据的整体延迟。
为了尽可能的充分利用每台机器的网络带宽,GFS
选择了线性接力的方式在各个 chunkserver
间传递数据,而不是其他的分发方式(如树状分发,例如以一台机器发送给3台机器为例,发送的机器的出口带宽就被3台机器共享)。
为了尽可能的避免网络瓶颈和高延迟的链路,每个机器会选择在网络结构下距离最近且还未收到数据的机器传递数据。假设现在客户端需要推送数据给 S1
到 S4
四台机器,客户端先将数据发送给距离最近的机器,比如说是 S1
,S1
同样将数据转发给距离 S1
最近的机器,比如说是 S2
,依此类推,最后数据到达 S4
。Google
内部的网络拓扑结构足够简单使得两台机器间的距离能够较准确的根据 IP
地址估算出来。
最后,GFS
在 TCP
连接上构建了一条流式接力传递的数据流来降低数据传递的延迟。每个 chunkserver
一旦收到一定大小的数据后就马上将其转发给距离最近的其他 chunkserver
。收到数据就马上转发并不会降低收数据的速率。在没有网络拥堵的情况下,假设 T
是当前网络的吞吐,L
是两台机器间的传输速度,那么要传输 B
字节给 R
个 chunkserver
需要的时间为 B / T + RL
,其中 B / T
是完整传输 B
个字节给第一台机器的时间,RL
表示第一台机器发送的第一个字节经过接力到达最后一台机器所需要的时间。在 Google
的网络环境下,T
为 100 Mbps
,L
远小于 1 ms
,所以 RL
的时间基本可以忽略,因此传输 1 MB
的数据理论上约需要 80 ms
((1 * 1024 * 1024 * 8 / 100 * 1000000) * 1000 ms)。
原子性追加写
GFS
提供了原子性的追加写操作(record append
)。在传统的随机写操作下,客户端会指定要写入的文件偏移位置,在多个客户端并发写的情况下,最终该文件区域的内容为多个客户端并发修改后混合的结果。而在追加写场景下,客户端不指定偏移位置,只提供需要写入的数据,GFS
能够原子性的至少一次将其追加到文件中,并指定一个数据写入后的偏移位置,然后将其返回给客户端。这个操作类似于在 Unix
下多个进程以 O_APPEND
的模式并发写入文件而无需担心竞争问题。
追加写在 Google
的分布式应用中使用的非常频繁,多个客户端会并发的对同一个文件追加写入。在传统的随机写操作下,客户端需要额外的同步机制例如实现一个分布式锁来保证写入的线程安全性。在 Google
的应用场景下,文件一般是作为一个多生产者/单消费者的缓冲队列或者包含了多客户端合并后的结果,所以追加写已经能满足需求。
追加写也是一种修改,它的执行流程和随机写基本是相同的,不过对于 primary
来说多了些额外的处理逻辑。首先客户端将需要追加写的数据发送给对应文件的最后一个 chunk
的所有 chunkserver
,然后发送写请求给 primary
。primary
会检查当次写入是否会造成最后 chunk
的大小超过 64 MB
。如果会超过,那么 primary
会先将当前 chunk
使用特殊字符或其他手段填充到 64 MB
,同时告知所有其他的 secondary
也进行同样的操作,接着回复客户端要求针对下一个新的 chunk
发送同样的追加写请求(追加写要求追加写入的偏移位置不超过 chunk
最大大小的四分之一处,从而使得由于数据填充带来的 chunk
碎片在一个可接受的水平。)。如果追加写入不会造成超过 chunk
的最大大小,那么 primary
会先将数据追加到自己的 chunk
中,产生一个新的偏移量,然后再通知其他所有的 secondary
,将数据追加到相同的偏移量上,最后全部 chunkserver
执行成功后再将新的偏移量返回给客户端。
如果任何一个 chunkserver
追加写失败了,客户端会发起重试。因此,多个 chunkserver
下同一个 chunk
的数据可能会有数据不一致的情况,某条记录有可能全部或者部分重复。GFS
并不保证每个 chunkserver
上的 chunk
的每个字节都一样。它只保证了每个追加写能原子性的至少写入一次,因为一次追加写执行成功依赖于所有的 chunkserver
成功写入到指定的偏移位置上。此外,在一次追加写执行成功后,后续的追加写必然是写在一个更高的文件偏移位置或者新的 chunk
上,即使主节点挑选了一个新的 primary
。在 GFS
的一致性模型下,成功执行了追加写所在的偏移区域的数据是已定义的(也是一致的),而剩下存在写失败的偏移区域的数据是不一致的,前文有提到过这些不一致的区域可以通过校验和来剔除。
快照
快照能够几乎瞬时的复制一个文件或者文件夹,而尽可能的降低对进行中的修改的影响。在实际应用中,一般使用快照对某个巨大的数据集快速创建一个分支(以及分支的分支),或者为当前的文件状态创建一个检查点,方便对当前的文件进行验证修改,在修改完成后提交或回滚。
类似于 AFS
,GFS
也采用了写时复制(copy-on-write
)的技术来实现快照。当主节点收到某个文件的快照请求时,会首先回收所有该文件的 chunk
所关联的租约,这就保证了后续所有对这些 chunk
的修改都需要先申请租约。这就给了主节点有复制一份 chunk
的机会。
当所有涉及的租约被回收或者过期后,主节点首先将快照操作写入操作日志,然后修改内存元数据,复制一份新的目标文件或文件夹的元数据,这个新复制的元数据和源文件的元数据都指向相同的 chunk
。
在快照生成后,假设此时有一个客户端希望写入 chunk C
,它会先询问主节点返回当前持有租约的 primary
,主节点发现要修改的 chunk C
有多于1个的元数据引用,说明这个 chunk
发生了快照。主节点首先会为这个文件创建一个新的 chunk C'
,然后要求所有当前持有 chunk C
的 chunkserver
在本地创建一个文件作为 chunk C'
。因为创建 chunk C'
的机器和持有 chunk C
的机器是同一台机器,所以创建 chunk C'
只是单纯的复制 chunk C
,不涉及任何网络 IO
(Google
使用的磁盘 IO
速度大概是3倍于 100 MB
的网络 IO
速度)。接下来的操作就和前面描述的客户端申请写入某个 chunk
一样了,主节点返回 chunk C'
的 chunk handle
和对应持有租约的 primary
给客户端,客户端并不会感知这个返回的 chunk
是从某个已有的 chunk
复制而来的。
主节点操作
所有涉及命名空间的操作都由主节点执行。另外,主节点还负责 chunk
的管理:每个 chunk
应该放在哪台服务器上、创建新的 chunk
及其副本、协调各 chunkserver
保证每个 chunk
的副本数量满足阈值、保证 chunkserver
访问的负载均衡、回收不再使用的 chunk
等等。
命名空间管理和锁
很多主节点的操作需要较长的时间完成,例如,一次快照操作就需要先回收所有 chunk
涉及的租约。同时,又需要降低不同的主节点操作间的影响。因此,GFS
允许不同的主节点操作并发执行,并通过命名空间加锁来保证线程安全。
和传统的文件系统不同,GFS
的文件夹不支持列出该文件夹内的所有文件,以及不支持文件或文件夹的别名(例如 Unix
的硬链接和软链接)。GFS
通过命名空间作为文件到元数据的映射索引,借助前缀压缩使得整个命名空间映射可以高效的保存在内存中。命名空间下的每个节点(代表一个文件名或者文件夹名)都持有一把读写锁。
主节点每次执行操作前都会先获取一批锁,例如如果当前操作涉及命名空间 /d1/d2/.../dn/leaf
,主节点会先获取文件夹 /d1
,/d1/d2
,…,/d1/d2/.../dn
的读锁,以及 /d1/d2/.../dn/leaf
的读锁或写锁。这里的 leaf
对应的是某个文件或文件夹。
下面来举例说明 GFS
的锁机制如何保证当创建 /home/user
的快照到 /save/user
时避免同时创建文件 /home/user/foo
。首先快照操作会获取 /home
和 /save
的读锁,以及 home/user
和 /save/user
的写锁。而文件创建的操作会获取 /home
和 /home/user
的读锁,以及 /home/user/foo
的写锁。可以看到,一个获取 home/user
的写锁,另一个获取 home/user
的读锁,所以这两个操作是互斥的,不会同时发生。写文件并不需要获取文件的父目录的写锁,因为文件夹对于 GFS
来说是个逻辑上的概念,背后没有类似 inode
的数据结构需要共享保护。获取文件夹的读锁已经足够保证不会有另一个客户端能够获取文件夹的写锁从而删除了这个文件夹。
这种锁机制的一个优点是允许对同一个文件夹下的不同文件进行并发修改。例如,可以在同一个文件夹下并发创建不同的文件,每一个创建操作都会获取该文件夹的读锁以及所要创建的文件的写锁。文件夹的读锁能有效避免这个文件夹被删除、重命名或者创建快照。文件的写锁则避免了同一个文件被创建两次。
因为整个命名空间会包含很多的节点,所以每个节点的读写锁采用了懒汉初始化的方式,并且当不需要的时候能及时删除。另外,锁的获取会按照命名空间的层级顺序以及同一层级下节点名称的字母顺序来获取,从而避免死锁。
副本的放置
一个 GFS
集群一般由多个机柜上的几百台机器组成,这些 chunkserver
又会被几百台在同一个或不同机柜上的客户端访问,如果是两台不同机柜上的机器间的通信可能会经过1个或多个网络交换机。另外不同机柜间的入口和出口带宽一般会小于同机柜内的机器间的带宽。这种多级的分布式对分发数据的扩展性,可靠性和可用性提出了挑战。
所以副本的放置选择策略主要出于两个目的:最大化数据的可靠性和可用性,最大化利用网络带宽。为了实现这两点,仅仅将所有的副本分发到不同的机器上还不够,因为这只对磁盘或者机器异常进行了容错,以及最大化利用了每台机器的带宽,但是还缺少可用性的考虑。因此,需要将副本分发到不同机柜的不同机器上,这样如果当某台机柜上的机器都因故下线了(例如一些共享资源如网络交换机或者供电设备发生异常),系统仍然是可用的。所以在跨机柜的访问下,某个 chunk
的读操作会充分利用不同机柜间的带宽,另一方面 chunk
的写操作就需要跨机柜访问,这也是跨机柜存储的权衡利弊的一个体现。
副本的创建、重复制和负载均衡
chunk
的副本的创建出于三个目的:创建一个新的 chunk
时需要保证存储的可靠性,保证每个 chunk
的副本数量满足阈值,保证 chunkserver
访问的负载是均衡的。
当主节点创建一个 chunk
时,它会决定在哪个 chunkserver
上创建空的 chunk
,它主要基于以下几点考虑:
- 选择磁盘空间利用率低于平均值的
chunkserver
,这保证了长期来看每台chunkserver
的磁盘空间利用率维持在一个相近的水平。 - 避免每台
chunkserver
存在过多最近创建的chunk
。虽然创建一个chunk
比较简单,但是可以预见的是随之而来这个chunk
会面临大量的写入。 - 如前面所述,每个
chunk
的副本需要跨机柜存储。
当某个 chunk
的副本数量低于用户指定的阈值时,主节点会复制一个 chunk
到某台 chunkserver
上。这种情况一般有以下几种原因:
- 某台
chunkserver
异常失联了。 chunkserver
反馈其保存的chunk
数据已损坏。chunkserver
的某个磁盘由于异常被禁用了。- 用户要求增加副本的数量。
主节点在复制一个 chunk
时会按照优先级处理。其中一个是距离满足指定的副本数量阈值还差多少。例如如果某个 chunk
还差两个副本就比只差一个副本的 chunk
有着更高的复制优先级。另外,复制还在使用的 chunk
的优先级高于复制最近被删除的 chunk
。最后,为了避免缺少副本带给应用的影响,主节点会优先处理那些阻塞了客户端执行的 chunk
。
主节点根据优先级决定复制哪个 chunk
之后,会选择几台 chunkserver
让其直接从拥有完整副本的 chunkserver
上复制数据。这种情况下新的 chunk
副本的存放位置的选择和前文所述类似:尽量保证每台 chunkserver
的磁盘空间利用率维持在一个相近的水平,避免副本的复制集中在一台 chunkserver
上,尽量保证副本跨机柜存储。为了避免副本复制的流量压垮客户端的流量,主节点会限制整个集群以及每台 chunkserver
同一时间执行的副本复制操作的数量。另外,每台 chunkserver
也会限制花在副本复制上的带宽。
最后,主节点会定期检查各 chunkserver
的流量或者磁盘空间利用率是否均衡:如果发现了不均衡则会在各 chunkserver
间移动某些 chunk
以达到磁盘空间利用率或流量的均衡。根据上述的策略,对于一台新加入集群的 chunkserver
来说,主节点会逐渐的将其填满 chunk
而不是马上让其承接大量新的 chunk
然后伴随着大量的写流量。另外,主节点也需要决定从哪台 chunkserver
上移除 chunk
,一般的,主节点会优先选择磁盘可用空间率低于平均水平的 chunkserver
,从而使得每台 chunkserver
的磁盘空间利用率维持在一个相近的水平。
垃圾回收
当某个文件被删除后,GFS
不会马上释放它所占用的空间,而是在常规的垃圾回收期间在文件和 chunk
层面延迟删除,这种策略使得系统更加简洁和可靠。
机制
当某个文件被应用删除后,和其他修改一样主节点首先会将该操作记录到操作日志中。不过,GFS
并不会马上删除该文件,而是将该文件重命名为一个隐藏的名字,同时这个隐藏的名字包含了文件删除时的时间戳。在主节点常规扫描系统的命名空间的期间,它会删除命名空间中已经存在了3天(时间间隔可配置)的隐藏文件。在这之前,这个文件依然是可以通过重命名后的名字读取的,或者将其重命名回原来的名字来撤销删除。一旦主节点将其从命名空间中删除,其对应的元数据也会一并删除,从而切断了这个文件和任何 chunk
的关联。
类似的,主节点也会定期扫描所有 chunk
的命名空间,一旦发现没有任何关联的 chunk
(即没有被任何文件引用的 chunk
),主节点就会删除这些 chunk
的元数据。之后,在主节点和 chunkserver
的心跳监测中,chunkserver
会向主节点反馈其所拥有的 chunk
,主节点会返回所有已经不在元数据中的 chunk
标识,chunkserver
收到回复后就可以删除掉这些不需要的 chunk
。
讨论
虽然分布式的垃圾回收是个困难的问题,往往需要一套特定编程语言下的复杂解决方案,在 GFS
的实现中却很简单。主节点可以轻易的标识出所有 chunk
的引用,它们全都保存在文件到 chunk
的映射中。同时主节点也可轻易的标识出所有的 chunk
副本,它们都是 chunkserver
上某个指定文件夹下的 Linux
文件。任何一个不在主节点中记录的副本都可以被回收。
GFS
采用的延迟垃圾回收的方式相比于立即删除的方式存在以下几个优点:
- 对于组件异常经常发生的大型分布式系统来说,延迟删除更为简洁和可靠。创建
chunk
时有可能在部分chunkserver
上成功在部分chunkserver
上失败,这就导致创建chunk
的这次操作整体是失败的,从而使得主节点不会记录该chunk
,后续也无法知晓这些部分创建成功的chunk
。如果采用立即删除的方式,需要由主节点向chunkserver
发送删除chunk
的消息并需要对发送失败的消息进行重发。而延迟垃圾回收的方式提供了一个统一、可靠的方式来删除无用的chunk
。 - 主节点将
chunk
的删除合并到了主节点的日常维护中进行,例如对命名空间的定期扫描以及主节点和chunkserver
的心跳监测。这就可以将chunk
的删除进行批量处理从而摊薄了运行的成本。另外,垃圾回收只会在主节点较为空闲的时候进行,主节点会更优先的响应客户端的请求。 - 延迟删除给不可逆转的误删除提供了缓冲。
在实际应用中,延迟删除的主要缺点是不利于磁盘剩余空间紧张的 chunkserver
释放磁盘空间。尤其是对不停的创建然后删除临时文件的应用来说,不能够马上利用那些不需要的临时文件的空间。GFS
通过加快回收某个重复删除的文件来缓解这个问题。同时,GFS
也允许用户针对不同的命名空间设置不同的副本数量阈值和垃圾回收策略。例如,用户可指定某个目录下的所有文件的 chunk
都不需要额外的副本,以及当文件删除时系统会立即直接删除。
过期的副本检测
在某个 chunk
所属的 chunkserver
异常下线期间,其他 chunkserver
上的 chunk
发生了修改,则该 chunkserver
再次上线后该 chunk
的数据版本已落后。主节点会记录每一个 chunk
最新的版本号,从而能识别过期的副本。
每当主节点为某一个 chunk
分配一个租约时,它会先更新 chunk
的版本号,并通知所有当前持有最新版本 chunk
的 chunkserver
也更新版本号。主节点和 chunkserver
都会将这个版本号持久化,这里的持久化顺序应该是 chunkserver
先,主节点后,否则主节点先持久化版本号然后此时下线了,再次上线后造成没有任何一个 chunkserver
持有最新的版本号。只有当持久化完成之后,主节点才会将 primary
发送给客户端,之后才能开始写入。如果此时某个 chunkserver
下线了,那么它所持有的 chunk
的版本号就无法更新,当这个 chunkserver
再次上线时,它会向主节点报告所持有的 chunk
以及对应的版本号,主节点就能知道这个 chunkserver
持有了过期的副本。如果主节点发现某个 chunk
的副本的版本号大于自己内存中的版本号,那么主节点就知道自己在更新版本号期间下线了,直接使用 chunkserver
的版本号作为最新的版本号。
主节点会在垃圾回收期间删除过期的副本。在这之前,如果有客户端请求该 chunk
的信息,主节点会忽视持有过期副本的 chunkserver
,不会将其返回给客户端。其次,主节点在返回给客户端的 chunk
信息中也包含了版本号,在要求某台 chunkserver
去复制另一台 chunkserver
上的 chunk
数据时也同样附带了版本号,这样客户端或者 chunkserver
在读取 chunk
数据时就能比较读到的数据是否是最近的版本。
容错和诊断
Google
在设计 GFS
遇到的最大问题之一是如何应对频繁的组件异常。各组件的质量和数量决定了异常是经常出现而不是偶尔出现:既不能完全信任机器,也不能完全信任磁盘。组件异常可能造成系统不可用,或者更糟的是数据损坏。本节主要描述 GFS
如何面对这些挑战以及开发了哪些工具来定位问题。
高可用
一个 GFS
集群由数百台机器组成,某些机器必然会在任意时间发生异常。GFS
通过快速恢复和副本这两个手段实现了系统的高可用。
快速恢复
主节点和 chunkserver
都是设计成不管以什么样的方式终止,都能在数秒内恢复终止前的状态。实际上,GFS
并不会刻意区分正常的终止还是异常的终止,各服务器本身日常就会通过杀死进程来终止。客户端或其他服务器会因此经历一段短暂的中断,因为进行中的请求会因为服务器的终止而超时,继而客户端会对重启后的服务器进行重连,然后重试。
chunk
副本
如之前描述,每个 chunk
会备份到不同机柜上的不同机器。用户可指定不同命名空间配置不同的备份策略。默认每个 chunk
有3个副本。主节点通过 chunkserver
间复制 chunk
来保证每个 chunk
有足够的副本数量,避免 chunkserver
由于下线或者数据损坏造成 chunk
副本数量不足。虽然依靠副本已经能较好的支撑需求,Google
的工程师也在考虑跨服务器的冗余手段如奇偶校验或者 erasure code
来应对日渐增长的只读存储需求。在当前这个松耦合的系统中实现更复杂的冗余策略会更有挑战性,不过也是可控的,因为大部分的文件操作都是追加写和读而不是随机写。
主节点副本
GFS
通过备份主节点的状态来实现可靠性。主节点的操作日志和检查点都会备份到多台机器上。一次文件的修改只有当主节点和所有备份服务器都写入到本地日志之后才认为是已提交的。从实现的简单性考虑,只会有一个主节点机器负责所有的元数据修改以及在后台运行的一些日常维护活动来修改主节点的内部状态,例如垃圾回收。当这个主节点发生异常时,它几乎能马上重启。如果整个机器或者磁盘发生异常,GFS
之外的监控设施能在其他机器上借助操作日志副本重新启动一个新的主节点进程。对于客户端来说不需要有任何改动,因为客户端和主节点的通信是通过主机名进行的(例如 gfs-test
),其对应的是一个 DNS
别名,当主节点更换机器时,同步修改别名映射即可。
另外,即使主节点异常了,还有影子主节点也提供对本地文件系统的只读访问功能。因为这个影子主节点不是严格的镜像节点,所以它们的文件系统上的数据可能会略落后于主节点,一般来说是几秒。影子主节点依然能够提供当前未在修改的文件查询功能,或者应用程序不介意查询到一部分过期的数据,例如 chunkserver
列表小于实际运行的数量。因为文件的内容是通过 chunkserver
读取,和主节点无关,所以客户端不会读取到过期的数据。可能过期的数据是元数据,例如文件夹的内容或者权限控制信息。
为了保证自己持续更新,影子主节点会不断从某台操作日志副本机器读取日志,并以和主节点一样的执行顺序将其重放到内存中的数据结构中。和主节点一样,影子主节点在启动时也会拉取 chunkserver
信息来定位 chunk
的副本位置,并定期与其进行心跳监测。它依赖主节点来更新 chunk
副本的位置,如主节点创建和删除副本。
数据完整性
每台 chunkserver
使用校验和来检测损坏的数据。鉴于一个 GFS
集群有几千个磁盘运行在几百台机器上,磁盘异常经常会导致文件读写时数据损坏或丢失。虽然可以从其他 chunkserver
恢复,但是通过比较多个 chunkserver
上的副本来检测数据损坏显然是不实际的。另外,在一致性模型中提到,每个副本的数据不是每个比特都一致的,由于追加写的原子性保证造成异常重试的存在,每个副本的数据很大可能是不同的。所以,每台 chunkserver
必须能够自己独立通过校验和来检测数据是否损坏。
每个 chunk
切分为每块大小为 64 KB
的数据块,每个数据块对应一个32位的校验和。和其他元数据一样,校验和也保存在内存中,并随日志持久化到本地磁盘中,且和用户数据分开存放。
对于读操作,chunkserver
会根据读取的字节范围先根据校验和校验所覆盖的数据块的数据是否完整,然后再返回数据给客户端或其他的 chunkserver
。因此,每台 chunkserver
不会把损坏的数据同步到其他 chunkserver
上。如果 chunkserver
发现某个数据块发生了损坏,则会返回一个异常给调用方,并向主节点报告。调用方收到回复后会重新选择一个 chunkserver
进行读操作,而主节点则会安排这个 chunkserver
从其他 chunkserver
那复制 chunk
。当新的 chunk
就绪后,主节点会通知这个 chunkserver
删除损坏的 chunk
。
校验和对读操作带来的影响较小,主要有几个方面的原因。大部分的一次读操作只涉及了几个数据块,所以需要读取和验证的校验和数量也较少。另外,客户端在读取时,会尽量保证正好在数据块的边界读取,而不是跨数据块。最后,校验和验证不涉及 IO
,以及校验和的计算可以和数据读取 IO
同时进行。
针对追加写,校验和计算对此做了大量的优化,因为追加写是主要的写场景。计算校验和时,GFS
会复用当前最后一个数据块的校验和,一个数据块的大小是 64 KB
,可能目前只写入了 30 KB
,那么本次往剩下的 34 KB
写入时,则无需从头开始计算这个数据块的校验和。对于新填充的数据块依然还是需要完整计算校验和。即使当前这个写入了 30 KB
的数据块损坏了,计算校验和时无法知晓,最终这个数据块的校验和与保存的数据已经不匹配,这个损坏也会在下一次读操作中被调用方感知。
相反的,对于随机写操作,如果当前的随机写覆盖了某个 chunk
已有的数据,则必须先对所覆盖的数据块进行校验和验证,确保当前的数据未损坏,然后再执行写入和计算新的校验和。如果不进校校验就写入,那么有可能在写入之外的地方已经发生了数据损坏。因为一次随机写可能写不满最后一个数据块,假设这个数据块是损坏的,如果写前校验就能发现这个问题。不过这里并没有理解为什么不能将完整性校验推迟到后续的读操作时,可能是因为追加写和流式读是 GFS
应用的主要方式,完整性校验推迟到读操作也能很快发现问题,而随机写是很少量的场景,写时校验能更快的发现问题。
在系统空闲的时候,chunkserver
会扫描和校验所有不活跃的 chunk
,从而能够发现那些不经常被访问但是已损坏的 chunk
(因为数据完整性检测发生在读写操作时)。一旦发现这样的 chunk
,主节点会创建一个新的 chunk
然后指示 chunkserver
复制一份有效的 chunk
,最后再删除损坏的 chunk
。这就避免因为一些不活跃但已损坏的副本使得主节点认为这些 chunk
依然满足副本数量阈值的要求。
诊断工具
通过详尽的诊断日志能有效的帮助问题隔离,调试,性能分析,而且带来的成本较小。如果没有日志,则很难理解各机器间无法复现的交互。针对某些重要的事件(如 chunkserver
的下线和上线) GFS
会生成相应的诊断日志,同时还会记录所有的 RPC
请求和响应。诊断日志的删除对系统的正确性没有任何影响。然而在磁盘空间允许的情况下,还是会尽可能保留多的诊断日志。
除了正在读取或写入的文件,诊断日志记录了其他所有 RPC
的请求和响应。通过比对各机器上的 RPC
日志,就能重现当时系统交互的场景,从而进行问题定位。同时这些日志也能辅助压力测试和性能分析。
诊断日志带来的性能影响很小(在其带来的价值面前不值一提),因为采用了异步顺序的方式写入日志。同时,最近某段时间内的事件也会保存在内存中用于线上的持续监控。