HBase客户端实践重试机制
大小:0.6 MB 人气: 2017-10-10 需要积分:1
标签:Hbase(11036)
现在,网易视频云与大家分享HBase客户端实践–重试机制。在运维HBase的这段时间里,发现业务用户一方面比较关注HBase本身服务的读写性能:吞吐量以及读写延迟,另一方面也会比较关注HBase客户端使用上的问题,主要集中在两个方面:是否提供了重试机制来保证系统操作的容错性?是否有必要的超时机制保证系统能够fastfail,保证系统的低延迟特性?
这个系列我们集中介绍HBase客户端使用上的这两大问题,本文通过分析之前一个真实的案例来介绍HBase客户端提供的重试机制,并通过配置合理的参数使得客户端在保证一定容错性的同时还能够保证系统的低延迟特性。
案发现场
最近某业务在使用HBase客户端读取数据时出现了大量线程block的情况,业务方保留了当时的线程堆栈信息,如下图所示:
看到这样的问题,首先从日志和监控排查了业务表和region server,确认了在很长时间内确实没有请求进来,除此之外并没有其他有用的信息,同时也没有接到该集群上其他用户的异常反馈,从现象看,这次异常是在特定环境下才会触发的。
案件分析过程
1.根据上图图1所示,所有的请求都block在《0x0000000782a936f0》这把全局锁上,这里需要关注两个问题:
哪个线程持有了这把全局锁《0x0000000782a936f0》?
这是一把什么样的全局锁(对于问题本身并不重要,有兴趣可以参考步骤3)?
2.哪个线程持有了这把锁?
2.1 很容易在jstack日志中通过搜索找到全局锁《0x0000000782a936f0》被如下线程持有:
定睛一看,该线程持有了这把全局锁,而且处于TIMED_WAITING状态,因此这把锁可能长时间不释放,导致所有需要这把全局锁的线程都阻塞等待。好了,那问题就转化成了:为什么这个线程会处于TIME_WAITING状态?
2.2 根据上图提示,查看源码中RpcRetryingCall.java的115行代码,可以确定该线程处于TIME_WAITING状态是因为自己休眠导致,如下图所示:
RpcRetryingCall函数是Rpc请求重试机制的实现,所以可以有两点推断:
HBase客户端请求在那个时间段网络有异常导致rpc请求失败,进入重试逻辑
根据HBase的重试机制(退避机制),每两次重试机制之间会休眠一段时间,即上图115行代码,这个休眠时间太长导致这个线程一直处于TIME_WAITING状态。
休眠时间由上图中expectedSleep = callable.sleep(pause,tries + 1)决定,根据hbase算法(见第三部分),默认最大的expectedSleep为20s,整个重试时间会持续8min,这也就是说全局锁会被持有8min,可这并不能解释持续将近几个小时的阻塞无请求。除非有两种情况:
配置有问题:需要客户端检查hbase.client.pause和hbase.client.retries.number两个参数配置出现异常,比如hbase.client.pause参数如果手抖配成了10000,就有可能出现几个小时阻塞的情况
网络持续有问题:如果线程1持有全局锁重试失败之后退出,线程2竞争到这把锁,此时网络依然有问题,线程2会再次进入重试,重试8min之后失败退出,循环下去,也有可能出现几个小时阻塞的情况
和业务方确认配置,所有参数基本属于默认配置,因此猜测一不成立,那最有可能的情况就是猜测二。经过确认,在事发当时(凌晨0点~早上6点)确实存在很多服务因为云网络升级异常发生抖动的情况出现。然而因为没有具体的日志信息,所以并不能完全确认猜测是否正确。但是,通过问题的分析可以进一步明白HBase重试机制以及部分客户端参数优化策略,这也是写这篇文章的初衷之一。
非常好我支持^.^
(0) 0%
不好我反对
(0) 0%
下载地址
HBase客户端实践重试机制下载
相关电子资料下载
- 【分布式存储数据恢复】hbase和hive数据库底层文件误删的恢复案例 415
- 使用G1 GC时HBase为什么性能下降了近20% 1653
- Hbase的基础性介绍与入门 1046
- 阿里HBase高可用8年“抗战”回忆录 246
- 阿里云HBase推出普惠性高可用服务,独家支持用户的自建、混合云环境集群 205
- 今年小米做东,HBaseCon Asia 2019将在北京召开 2893
- 基于HBase的工业大数据存储实战 3130
- 阿里云HBase推出全新X-Pack服务 定义HBase云服务新标准 123
- 阿里云HBase全新发布X-Pack NoSQL数据库再上新台阶 231
- 八年技术加持,性能提升10倍,阿里云HBase 2.0首发商用 130