文 / 杨栋

Hypertable是一个开源、高性能、可伸缩的数据库,采用与Google的BigTable相似的模型。BigTable让用户可以通过一些主键来组织海量数据,并实现高效的查询。Hypertable和HBase分别是BigTable的两个开源实现:HBase主要使用Java语言开发,而Hypertable使用Boost C++,另外在一些细节的设计理念上也有所不同。

Hypertable系统主要包括Hyperspace、Master和Range Server三大组件(如图1所示)。Hyperspace是一个锁服务,地位相当于Google的Chubby,主要用于同步、检测节点是否发生故障和存放顶层位置信息;Master主要用于完成任务分配,未来会有负载均衡以及灾后重建(Range Server失效后自动恢复服务)等其他作用;Range Server是Hypertable的实际工作者,主要负责对一个Range中的数据提供服务,此外它还肩负起灾后重建的责任,即重放本地日志恢复自身故障前状态;另外,还有访问Hypertable的客户端Client等组件。

[caption id="attachment_10325" align="aligncenter" width="402" caption="图1 Hypertable原有架构示意图"][/caption]

业务应用

Facebook在SIGMOD 2011会议上介绍了基于Hadoop/HBase的三种应用系统:Titan(Facebook Messages)、Puma(Facebook Insights)和ODS(Facebook Internal Metrics)。Titan主要用于用户数据存储,Puma用于MapReduce分布式计算,ODS用于存储公司内部监控数据,Facebook基于HBase的应用方式与国内几大互联网公司类似。

和ODS类似,对于一些硬件或软件的运行数据,我们会保存监控数据到数据库中,供软件工程师或者运维工程师查询。这里的查询可能是大批量的,也可能是个别条目;可能是延迟查询,也可能是即时查询。将此类业务的需求总结如下。

  • 要求存储容量非常大,往往达到10~100TB,10亿~100亿条记录。
  • 需要支持自动扩容,因为数据的增长模式不易估计,可能出现短时间的爆炸性增长。
  • 写吞吐的压力较大,每秒超过1万次的插入。
  • 近期导入数据能够快速检索。
  • 需要支持扫描早期的大量数据,例如支持周期性的检查或回滚。

这里可选的一个方案是使用传统的DBMS(如MySQL)。但它存在如下弊端:首先MySQL单机存储有上限,一般超过1.5GB性能就会有波动;不过即使MySQL支持拆表,也并非完全分布式的,由于表的大小限制,对于不规则的数据增长模式,分布式MySQL也并不能很好地应对,如果抖动频率较大,需要引入较多的人工操作来进行数据迁移;再者MySQL也不支持表的Schema动态改变。另一个可选方式是使用Hadoop。不过MapReduce并非实时计算,并且HDFS不支持随机写,随机读性能也很差。

综上分析,我们选择BigTable类型的系统来支持业务需求,即使用Hypertable+Hadoop的方式(如图2所示)。

[caption id="attachment_10326" align="aligncenter" width="353" caption="图2 监控数据收集与查询示意图"][/caption]

高可用改进

元数据集中化

挑战:在Hypertable或其他类似BigTable的系统中,元数据一般采用一种两级的类B+树结构,这主要是出于规模的考虑:采用这种结构理论上可以支持存放并索引2EB的用户数据。若要索引这么多用户数据,所需的元数据就高达16TB,一台机器是存不下的,因此在类BigTable系统中,元数据也是分布在不同节点上进行管理的,集群中任意一个节点既可能包含用户Range也可能包含元数据Range。

虽然这种做法可以解决规模问题,但在管理上带来了一些困难,特别是进行故障恢复时,由于用户表的Range恢复过程中需要读取元数据,所以必须先恢复METADATA表中的Range,再恢复用户表中的Range。如果有多台Range Server同时故障,这种跨节点的依赖性处理起来非常困难,其他一些维护性操作同样具有类似问题。此外,由于一条METADATA实际上覆盖了一个200MB的Range,所以任何一台包含METADATA的Range Server发生故障,都可能导致这部分METADATA所涵盖的一大批数据不可访问。将METADATA分布到多个不同的Range Server上,无异于给系统增加了很多单点,降低了系统可靠性。

解决:本着简单原则,我们认为将元数据与用户数据分离,放在专用的Meta Range Server上更具有可操作性。元数据集中化的唯一缺点是,由于受Meta Range Server内存限制,32GB物理内存所能存放的元数据理论上只能支持上PB的用户数据。但考虑一般机房所能容纳的机器规模,PB级的数据规模完全可以满足大多数公司的需要。

[caption id="attachment_10327" align="aligncenter" width="337" caption="图3 Hypertable高可用改进架构示意图"][/caption]

图3给出了Hypertable元数据集中管理的整体结构。目前的实现将Hypertable中的数据服务器(Range Server)分为两种:Meta Range Server和User Range Server。Meta Range Server只管理Root表和METADATA表的Range,User Range Server只管理用户表的Range。由于Master的负载较轻,因此一般将Meta Range Server与Master放在同一个节点上。

系统启动时,每个Range Server从配置文件得知自己的类型,并在注册时汇报自己的类型。Master记录每台Range Server的信息。当Master需要将Range分配给Range Server时(例如表格创建和Range分裂),会根据Range所在表格的类型来选择合适的Range Server,元数据Range分配到Meta Range Server,用户Range则分配到User Range Server。

数据与日志存储分离

挑战:Hypertable集群中某些Range Server发生故障(Range Server进程故障退出)时,需要重新启动该Range Server并恢复服务,这依赖于Range Server记录的操作日志(CommitLog和SplitLog等)。BigTable系统(Hypertable/HBase)最重要的功能之一是自动恢复,自动恢复依赖操作日志(Commit Log)能够真正写入HDFS(Sync),故障发生后,系统通过重放日志构建故障前的一致性状态。

在我们早期使用Hypertable和Hadoop系统时,Hadoop 0.18版本尚不支持Append Sync功能。即使当前版本的Hadoop支持了Append Sync功能,频繁使用Sync也会影响系统的写吞吐能力。另外,Hadoop的稳定性在当时还不能得到保证,存在写入失败的情况。如果Hadoop出现问题,那么Hypertable刚写入的数据可能丢失。如果是日志,那么重启时无法恢复系统状态。

解决:一般情况下,Hypertable系统的存储基于Hadoop文件系统,数据和日志都写入HDFS。而在改进后的Hypertable系统中我们采用了不同的存储方式:数据写HDFS,日志写Local FS。

较之本地文件系统Ext2等,HDFS的稳定性还是略逊一些,在Hypertable的实际运维过程中,我们也遇到过Hypertable向Hadoop写入数据失败的情况。鉴于日志的重要性,我们选择将日志写入可靠性更高的本地文件系统,这样即使Hadoop写文件时出现问题,也可以通过重放本地日志来恢复Hypertable系统状态。

改进后的Hypertable集群发生故障时,有以下几种处理场景。

  • 写日志故障:Range Server在写日志时(CommitLog等)发生错误,可能是本地磁盘故障。此时日志的完整性不能得到保证,需要在Range Server写日志的相关操作上附加额外的例外处理。日志写例外将触发Range Server执行一次OFFLINE操作,即在日志完整性不能保证的前提下,尽快保证数据的完整性和一致性,之后再人工参与后续的恢复处理。
  • 写数据故障:Range Server故障非日志操作引起的,可能由系统Bug导致,也可能是Hadoop写数据文件失败。此时日志的完整性有保障,可以直接执行SHUTDOWN操作,关闭各个Range Server。待Bug解决或Hadoop恢复后,重启Hypertable重放日志即可恢复集群状态和数据。

以上提到半自动容错机制的两条路线分别保证了“日志- | 数据+”和“日志+ | 数据-”两种故障情况下集群数据的完整性和一致性。那么有没有“日志- | 数据-”的情况,极端情况下可能出现Hadoop写数据文件失败和某Data Node(Range Server)硬盘故障同时发生,此时系统将不可避免地丢失数据,我们只能通过上层应用回滚重放的方式来恢复系统数据。

分裂日志策略

挑战:Hypertable系统涉及的日志为CommitLog和SplitLog等,日志写本地文件系统的策略约束了SplitLog的故障恢复。

Hypertable系统设计SplitLog的初衷在于保证导入数据的速率。Range Server上的Range在分裂时,数据可以无阻塞地写入SplitLog(它必须写到分布式文件系统上,因为它保存的是实际数据),Range分裂完成后SplitLog文件可能被其他的Range Server重放。CommitLog中记录了SplitLog的位置,系统恢复时日志重放会涉及SplitLog日志的重放,如果SplitLog写在本地,那么故障恢复时就无法读取该日志。

HBase系统中并未涉及SplitLog机制,在Range分裂时数据不能继续导入。

解决:解决方案有两种,一种是本着稳定性和可靠性优先于性能的原则,为了保证日志的可靠性和使得自动恢复机制更简单,取消SplitLog机制,修改后的Hypertable系统在Range分裂过程不涉及SplitLog相关操作;另一种是将SplitLog写入更加可靠的共享存储中,能够让Range Server远程访问,这相当于引入了第三方系统。

安全停机策略

挑战:kill/run操作可以完成任意时刻Hypertable系统的关闭和启动,无论当前是否正在导入数据,因为Range Server启动后会重放日志。但由于当时的Hypertable缺乏自动迁移(负载均衡)机制,这组操作并不适用于集群的变更,例如更替或添加节点。

解决:offline/online操作方式的提出是为了辅助kill/run操作,增加Hypertable集群的可扩展性。执行这组操作,可以保证offline执行时内存数据都写入文件系统,online执行时Range能够均匀分布加载,易于集群节点更换。系统管理员通过Hypertable命令行工具执行offline向各个Range Server发出命令,Range Server进程收到offline命令后,等待其上执行的Maintenance任务执行完成,并卸载其上加载的Range后退出。Range卸载成功时,所有系统数据被成功写入分布式文件系统,本地文件系统的日志被删除;卸载失败时,日志保留。系统管理员通过Hypertable命令行工具执行online命令,Master收到online命令后,将METADATA记录的Ranges均匀分配给各个Range Server加载,这就做到了半自动的负载均衡。

性能优化

内存优化

挑战:在Hypertable系统的运维中,我们发现,Hypertable在内存使用效率上存在严重问题。在数据插入过程中,Range Server内存用量一直飙升,而且持久不下,很容易造成内存溢出并最终崩溃,严重威胁Hypertable的稳定性。

为了定位内存占用过量问题,我们使用valgrind和TCMalloc库的Heap Profiling工具对Hypertable进行了测试,发现Hypertable内存飙升的原因是Cell Cache代码中存在频繁分配、释放小片内存(从十几字节到几千字节不等)的情况,从而产生了大量内存碎片,致使内存效率存在严重问题。如图4所示,Range Server中的大量内存分配集中于Cell Cache为<key, value>和Cell Map进行空间分配的时候。

[caption id="attachment_10328" align="aligncenter" width="423" caption="图4 改进前Range Server内存使用情况统计"][/caption]

解决:我们决定对Cell Cache相关的内存实施独立管理,即采用自定义的内存分配回收方式管理<key, value>和Cell Map,使其产生的内存碎片最小化。

图5显示了Hypertable数据服务器上的数据更新过程。Client向Range Server发送数据(<key, value>形式),Range Server首先将数据缓存在Cell Cache中,并使用Cell Map结构建立树形索引。当需要进行Compaction时,会新开一个Cell Cache,并把当前Cell Cache冻结,新写入的数据会进入新开的Cell Cache,而冻结的Cell Cache则在后台写到文件系统中形成Cell Store文件,Compaction完成后,冻结了的Cell Cache会被统一释放。此过程中,Cell Cache涉及的内存分配释放操作主要有:分配空间(new)容纳要写入的key/value;分配空间维护Cell Map(本质上是一个std::map,使用默认的STL allocator分配空间)索引结构;释放数据和索引占用的全部空间。可见,问题主要出在内存分配太过细碎。

[caption id="attachment_10329" align="aligncenter" width="459" caption="图5 Hypertable插入数据时Cell Cache内存分配示意图"][/caption]

我们修改了Cell Cache的分配策略,利用简化的内存池思想,将内存分配策略改为统一分配。每个Cell Cache使用1个内存池(MemPool),每个MemPool初始时包含1个4MB(默认设置)的缓冲区(MemBuf),所有的<key, value>和Cell Map结构占用的空间都在MemBuf内部分配。当MemBuf满了之后,再分配一片新的MemBuf,释放时也是大片释放,这样就防止了频繁的new/delete操作。此外,<key, value>和Cell Map结构占用的内存是分别从MemBuf的两端分配的,这样做的目的是保证Cell Map内存对齐,减少因为内存非对齐访问带来的效率下降。当一个缓冲区用满后,内

Logo

20年前,《新程序员》创刊时,我们的心愿是全面关注程序员成长,中国将拥有新一代世界级的程序员。20年后的今天,我们有了新的使命:助力中国IT技术人成长,成就一亿技术人!

更多推荐