Apache Kylin发布新版流处理引擎

ArcMueller 7年前
   <p>Apache Kylin在 1.5.0 推出了从流数据进行准实时(Near Real Time)处理功能,可以直接从Apache Kafka的主题(Topic)中消费数据来构建Cube。Apache Kylin 1.5.0的流处理是一次实验性的探索,它打破了以往只能从Apache Hive表构建Cube的局限,将数据从产生到可查询的延迟从小时级降低到了分钟级,满足了一些对实时性要求比较高的场景;但它在实现上存在一些局限︰</p>    <ul>     <li>不可扩展︰ 由于是利用单个 Java 进程(而不是利用某种计算框架)对数据做处理,当遇到流数据高峰时,可能由于资源不足而导致构建失败;</li>     <li>可能会丢失数据︰ 由于使用一个起始时间+结束时间在Kafka队列中使用二分查找近似地寻找消息的偏移量(offset),过早或过晚到达的消息将会被遗漏,从而使得查询结果有误差 ;</li>     <li>难以监控︰ 用于构建的任务是单独通过shell脚本执行的,而不是像其它Cube那样由任务引擎统一调度和执行,所以这些任务是在Web界面和REST API上都无法查询到的,使得用户无法方便地使用工具进行监控和管理;</li>     <li>其它︰ 必须持续执行,如果有系统宕机将会造成某些时间窗口的任务没有被执行,从而必须依靠管理员手动恢复;如果宕机时间较长,管理员不得不将长时间窗口切成多个小时间窗口依次来恢复,非常繁琐 。</li>    </ul>    <p>为了克服这些限制,Apache Kylin团队基于Kafka 0.10的API,开发了新版的 准实时流式处理 ,它已经在内部测试了一些时间,目前正在公开测试中。</p>    <p>新版流式构建是在Kylin v1.5的"可插拔 "架构下的一个完美实现︰ 将Kafka主题视为一种数据源,实现相应的适配器,将数据先抽取、转换和保存到 HDFS,接下来使用各种Kylin的构建引擎(MR/Spark等)对数据进行并行计算 。图 1 是高层次的架构图。</p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/5f8579ae0db4f7066389990721430530.png"></p>    <p>Kylin的Kafka适配器参考了 <a href="/misc/goto?guid=4959724894274629908" rel="nofollow,noindex"> <u>kafka-hadoop-loader</u> </a> 的思路和部分代码, 将Kafka主题抽象成Hadoop输入文件格式(InputFileFormat),为主题的每个分区(partition)分配一个Mapper消费数据; 之后Kylin将利用现有框架进行并行处理,从而使得方案变得可扩展且具有容错性。</p>    <p>要解决"数据丢失"问题,Kylin将开始/结束消息的偏移量(offset)计入了每个Cube segment,并使用偏移量作为分区值 ,offset是顺序递增的且不能有重叠和遗漏(如果主题有多个分区,使用各分区偏移量之和作分区值);这将确保没有数据丢失,一个消息只会被消费一次。晚到达的消息会被稍后的segment统计进来;每个Segment 有"最早时间”和"最晚时间"; 当用户按时间条件查询时,Kylin将扫描与查询时间范围相匹配的所有段。图 2解释了这个设计。</p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/fa61ece7974d9fec1732040a8e14eb54.png"></p>    <p>上图中有三个segment,它们的offset依次连续且无重叠(左包右闭),Seg[100-400]中的消息时间跨度是1:04 – 1:11,Seg[400 -  2000]的时间跨度是1:08 – 1:40;当用户要查询1:10的统计信息时,Kylin发现这两个Segment都可能有这个时间的消息,故而会扫描这两个Segment然后再次做汇总计算。</p>    <p>新版流计算引擎也进行其它一些更改和增强︰</p>    <ul>     <li>允许同时构建/合并多个segment,前后的构建任务都是独立的</li>     <li>自动从前一个segment或从Kafka寻找消息的开始及结束的offset</li>     <li>支持嵌入格式(结构化)的JSON消息</li>     <li>增加了触发流式构建的REST API</li>     <li>增加了来检查和部分填补segment空洞的REST API</li>    </ul>    <p>内部的集成测试结果初步验证了当初的目标 ︰</p>    <ul>     <li>可伸缩︰ 它能够在一次构建中轻松处理上亿条消息;</li>     <li>灵活︰ 可以在任何时候,以你期望的频率触发构建,例如︰ 在白天每隔 5 分钟触发一次, 在夜间将频率降低到每个小时,在需要做的维护可以随时暂停; 由于是Kylin管理所有主题的offset,再恢复时它可以自动从上一次的结束位置继续;</li>     <li>稳定︰ 稳定性大大提高,在上一版中经常发生的OutOfMemory错误再没有出现过;</li>     <li>易于管理︰ 用户可通过Kylin的"Monitor"页面或 REST API检查所有构建任务的状态;</li>     <li>构建性能︰相比于前一版构建时间略长(因为有Hadoop任务的调度),但延迟依然在可接受的分钟级别。</li>    </ul>    <p>在一个小规模的测试群集 (8台 AWS实例,消费 推ter Sample 消息流) 中,创建一个有9个 维度和3个度量的Cube,每秒约一万条消息,当构建间隔是 2 分钟的时候,平均每次构建需 3 分钟; 当构建间隔是 5 分钟的时候,平均每次构建需要 4 分钟;   这里是几个测试中的截图 ︰</p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/fa6cb4f5b117163c3682f1eac143a580.png"></p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/5447c4542fdb469cbc7c4ab62120b090.png"></p>    <p style="text-align:center"><img src="https://simg.open-open.com/show/86cf18f9bf9a00e2cc43e5219eb37926.png"></p>    <p>总结,这是比前一版本相比更加健壮和完善的流数据OLAP 解决方案。现在你可以从Apache Kylin的下载页面下载到 1.6.0-SNAPSHOT 的二进制包,然后按照此 <u>教程</u> 生成第一个流式Cube。</p>    <p> </p>    <p> </p>    <p>来自:http://www.infoq.com/cn/news/2016/11/Apache-Kylin-publish-Stream-proc</p>    <p> </p>