当前位置: 移动技术网 > IT编程>数据库>其他数据库 > 使用ElasticSearch赋能HBase二级索引总结

使用ElasticSearch赋能HBase二级索引总结

2020年04月10日  | 移动技术网IT编程  | 我要评论


一。背景介绍

公司成立差不多十五六年了,老公司了。也正是因为资格老,业务迭代太多了,各个业务线错综复杂,接口调用也密密麻麻。有时候a向b要数据,有时候b向c要接口,有时候c向a要服务;各个业务线各有各的财产,各自为营,像一个个小诸侯拥兵自重,跑腿费会议费都贵的很。面对这个现状,我们急需进行一波大改造了。

而这个系统(我们暂且叫它天池吧),正是为了整合公司各个业务线的资源,改造这个错综复杂的蜘蛛网为简单的直线班车。省去不必要的接口调用、业务穿插、会议沟通以及不知去哪里拿数据、拿不到数据、拿数据慢的困扰。当然,更节省了产品、开发人员的时间,提升了各业务线整体工作效率。

几个词形容一下天池:稳、快、大、省、清晰。

二。业务梳理

经过对公司各线业务进行梳理,总结出以下几大常见的数据输出模型:

  • key-value快速输出型,最简单的kv查询,并发量可能很高,速度要求快。比如风控。

  • key-map快速输出型,定向输出,比如常见的通过文章id获取文章详情数据,kv查询升级版。

  • multikey-map批量输出型,比如常见的推荐feed流展示,key-map查询升级版。

  • c-list多维查询输出型,指定多个条件进行数据过滤,条件可能很灵活,分页输出满足条件的数据。这应该是非常常见的,比如筛选指定标签或打分的商品进行推荐、获取指定用户过去某段时间买过的商品等等。

  • g-top统计排行输出型,根据某些维度分组,展示排行。如获取某论坛热度最高top10帖子。

  • g-count统计分析输出型,数仓统计分析型需求。

  • multi-table混合输出型,且不同表查询条件不同,如列表页混排输出内容。

  • term分词输出型

或许还有更多数据模型,这里就不再列举了。从前端到后台,无论再多数据模型,其实都可以转化为索引+kv的形式进行输出,甚至有时候,我觉得索引+kv>sql

基于此业务数据模型分析及公司对elasticsearch的长期使用,我们最终选择了hbase + elasticsearch这样的技术方案来实现。

三。架构设计与模块介绍

先看一下整体架构图,如下图: 架构设计

整个天池系统核心主要分为数据接入层、策略输出层、元数据管理、索引建立、平台监控以及离线数据分析六大子模块,下面将分别对其进行介绍。

1. 数据接入模块介绍

数据接入模块我们主要对hbase-client api进行了二次轻封装,支持在线restful服务接口和离线sdk包两种主要方式对外提供服务,同时兼容hbase原生api和hbase bulkload大批量数据写入。

其中,在线restful服务以hbase connection长连接的方式对外提供服务,好处是:在性能影响不大的情况下方便跨语言操作,更主要的一点是便于管理。在这一层,可以做很多工作,比如权限管理、负载均衡、失败恢复、动态扩缩容、数据接口监控等等,当然这一切都要感谢k8s的强大能力。

2. 策略输出模块介绍

该模块主要就是对接我们上文业务梳理模块归纳的各种业务需求,都由此模块提供服务。顾名思义,策略模块主要用于为用户配置策略,或用户自己配置策略,最终基于策略生成策略id。

这一层我们主要是对elasticsearch和hbase的一些封装,通过动态模板将用户请求转化为elasticsearch dsl语句,而后对es进行查询,直接返回数据或是获取到rowkey进而查询hbase进行结果返回。

通过元数据管理中心,我们可以判断出用户所需字段是否被索引字段覆盖,是否有必要二次查询hbase返回结果。而这整个查询过程,用户并不会感知,他们只需要一个policyid即可。

当然,我们也在不断普及用户如何通过后台自己配置生成策略。合作较多的业务方,甚至可以自己在测试环境配置好一切,完成数据的自助获取工作。而我们需要做的,只是一键同步测试环境的策略到线上环境,并通知他们线上已可用。整个过程5~10分钟,一个新的接口就诞生了。

其次,由于es抗压能力毕竟不如hbase猛,我们的策略接口也会根据业务需求决定是否开启缓存。事实上,大部分接口是可以接受短时间内数据缓存的。当然像简单kv、k-map、mk-map这种是直接走hbase的,需求量也挺大。

到目前为止,上述业务输出模型基本都已支持动态策略配置。这真的要感谢elasticsearch强大的语法和业务场景覆盖能力,毕竟在我看来,elasticsearch更像是一个为业务而生的产品。深入了解es后,你会发现在有些方面它真的比sql更强大;现在我们的策略平台甚至支持分词查询、分桶查询、多表联合查询、topn、聚合查询等多种复合查询,这都要感谢elasticsearch强大的功能。

3. 元数据管理模块介绍

大家都知道hbase是no-schema模型,元数据管理层我们也就是为其和es做一个虚拟的schema管理,同时去动态控制哪些字段要建索引。在数据接入的时候,我们会通过元数据中心判断数据是否符合规则(我们自己定的一些规则);在数据输出的时候,我们控制哪些策略需要走缓存,哪些策略不需要走hbase等等。其次,维护一套元数据方便我们做一些简单的页面指标监控,并对es和hbase有一个总线控制(如建表删表等),该模块就不多说了。

4. 索引建立模块介绍

这个模块呢,其实算是相对比较复杂的一个模块。我们没有采用hbase + wal + es的方式而是hbase + kafka + es 的方式去同步索引数据。一是因为wal层不太好控制和监控,二是es消费wal的效率问题,三是wal层数据一致性不好维护。

所以我们把一部分的工作放到了数据接入层,在数据写完hbase之后,即对外响应success并异步将数据推至kafak队列中等待es去二次消费;写入失败则对外抛出异常,我们首先要保证的是,写入hbase要么成功,要么失败。

在es消费层,我们是可以动态指定消费线程数量的。当kafka lag堆积超过一定阈值(阈值可进行group级调节和监控),会进行警报,并动态调整消费线程数。

在数据一致性方面,我们也做了大量工作,且我们只保证数据最终一致性。当数据写入hbase成功之后,我们会对写kafka和写es进行链路追踪,任何一个环节一旦写入失败,即将failed key写入黑名单(redis存储)。

对于进入黑名单的数据,我们会起定时调度线程去扫描这些key并进行自动回补索引。回补方式是:到hbase中拿最新的数据再次写入队列中去。如果此时又失败,我们会把这些key放入终极死亡名单(redis存储),并通过定时调度线程去扫描这个死亡名单,如果有尸体,则报警,此时人力介入。

这种分层处理方式,也是借鉴了些许hbase lsm的思想,勿喷勿喷~

我简单画了一下这个流程,方便大家理解,见下图:

数据流程图

5. 平台监控模块介绍

该模块不再细说了,主要是hadoop集群、hbase集群的监控,外加k8s平台监控。k8s监控平台主要基于prometheus+grafana+fluent实现。

6. 离线数据分析模块介绍

该模块依赖于hbase replication集群间复制功能实现。数据在同步至离线hbase集群之后,主要用于对接数据仓库、spark读写分析、大范围扫描操作等等。主要是减小面向分析型作业对线上实时平台的影响。

六大模块就简单介绍到这里。

四。心得

总的感受:使用es赋能hbase感觉很融洽,es很棒,es+hbase真的可以媲美sql了。

好像es天生跟hbase是一家人,hbase支持动态列,es也支持动态列,这使得两者结合在一起很融洽。而es强大的索引功能正好是hbase所不具备的,如果只是将业务索引字段存入es中,体量其实并不大;甚至很多情况下,业务索引字段60%以上都是term类型,根本不需要分词。虽然我们还是支持了分词,比如多标签索引就会用到。

很多设计者可能会觉得hbase + kafka + es三者结合在一起有点太重了,运维成本很高,有点望而却步。但转换角度想一下,我们不就是搞技术的嘛,这下子可以三个成熟产品一起学了!现在看来,收获还是大于付出的。

至于es和solr选择谁去做二级索引的问题,我觉得差别不大,根据自家公司的现状做选择就好了。

最后,还是要为elasticsearch点个赞!不错的产品!

五。未来要做的事

  • 多租户全链路打通
  • 策略层sql支持
  • 系统不断优化、产品化

转自:https://www.cnblogs.com/zpb2016/p/12671358.html

如对本文有疑问, 点击进行留言回复!!

相关文章:

验证码:
移动技术网