从clickhouse到bytehouse:实时数据分析场景下的优化实践

zhisheng_blog zhisheng_blog     2022-12-31     114

关键词:

近日,字节跳动旗下的企业级技术服务平台火山引擎正式对外发布了 ByteHouse。在打造 ClickHouse 企业版 ByteHouse 的过程中,我们经过了多年的探索与沉淀,今天和大家分享字节跳动过去使用 ClickHouse 的两个典型应用于优化案例。

近日,字节跳动旗下的企业级技术服务平台火山引擎正式对外发布「ByteHouse」,作为 ClickHouse 企业版,解决开源技术上手难 & 试错成本高的痛点,同时提供商业产品和技术支持服务。

作为国内规模最大的 ClickHouse 用户,目前字节跳动内部的 ClickHouse 节点总数超过 1.5W 个,管理总数据量超过 600PB,最大的集群规模在 2400 余个节点。综合来说,字节跳动广泛的业务增长分析很多都建立在 ClickHouse 为基础的查询引擎上。在打造 ClickHouse 企业版「ByteHouse」的路程中,我们经过了多年的探索与沉淀,今天和大家分享字节跳动过去使用 ClickHouse 的两个典型应用与优化案例。

推荐系统实时指标

在字节跳动内部“A/B 实验”应用非常广泛,特别是在验证推荐算法和功能优化的效果方面。最初,公司内部专门的 A/B 实验平台已经提供了 T+1 的离线实验指标,而推荐系统需要更快地观察算法模型、或者某个功能的上线效果,因此需要一份能够实时反馈的数据作为补充:

  • 能同时查询聚合指标和明细数据;

  • 能支持多达几百列的维度和指标,且场景灵活变化,会不断增加;

  • 可以高效地按 ID 过滤数据;

  • 需要支持一些机器学习和统计相关的指标计算(比如 AUC)。

技术选型

字节内部有很多分析引擎,ClickHouse、 Druid、 Elastic Search、 Kylin 等,通过分析用户需求后选择了 ClickHouse:

  • 能更快地观察算法模型,没有预计算所导致的高数据时延;

  • ClickHouse 既适合聚合查询,配合跳数索引后,对于明细点查性能也不错;

  • 字节自研的 ClickHouse 支持 Map 类型,支持动态变更的维度和指标,更加符合需求;

  • BitSet 的过滤 Bloom Filter 是比较好的解决方案,ClickHouse 原生就有 BF 的支持;

  • 字节自研的 ClickHouse 引擎已经通过 UDF 实现了相关的能力,而且有比较好的扩展性。

每个产品都有自己合适的场景,但是对于当前场景的需求评估下,ClickHouse 更加合适。

方案评估

方案对比

确认技术选型后,在如何实现部分,也有两种方式:

最终方案 & 效果

由于外部写入并不可控和技术栈上的原因,我们最终采用了 Kafka Engine 的方案,也就是 ClickHouse 内置消费者去消费 Kafka。整体的架构如图:

  • 数据由推荐系统直接产生,写入 Kafka——为了弥补缺少 Flink 的 ETL 能力,推荐系统做了相应配合,修改 Kafka Topic 的消息格式直接适配 ClickHouse 表的 schema;

  • 敏捷 BI 平台也适配了一下实时的场景,可以支持交互式的查询分析;

  • 如果实时数据有问题,也可以从 Hive 把数据导入至 ClickHouse 中,除此之外,业务方还会将 1% 抽样的离线数据导入过来做一些简单验证,1% 抽样的数据一般会保存更久的时间。

除了技术选型和实现方案,我们在支持推荐系统的实时数据时遇到过不少问题,其中最大的问题随着推荐系统产生的数据量越来越大,单个节点的消费能力也要求越来越大,主要碰到如下问题:

问题一:写入吞吐量不足

挑战:在有大量辅助跳数索引的场景下,索引的构建严重影响写入吞吐量。

解决方案:异步构建索引。

社区版本的实现里的具体逻辑如下:

  • 解析输入数据生成内存中数据结构的 Block;

  • 然后切分 Block,并按照表的 schema 构建 columns 数据文件;

  • 最后扫描根据 skip index schema 去构建 skip index 文件。三个步骤完成之后才会算 Part 文件构建完毕。

在需要保证构建完 columns 数据之后用户即可正常查询的前提下,ByteHouse 同步完成前面两步,第三步把构建好的 Part  放入到一个异步索引构建队列中,由后台线程构建索引文件。

效果:在改成异步后,整体的写入吞吐量大概能提升 20%。

问题二:Kafka 消费能力不足

挑战:社区版本的 Kafka 表,内部默认只会有一个消费者,这样会比较浪费资源并且性能达不到性能要求。

尝试优化过程:

  • 尝试通过增大消费者的个数来增大消费能力,但社区的实现是由一个线程去管理多个的消费者,多个消费者消费到的数据最后仅能由一个输出线程完成数据构建,所以这里没能完全利用上多线程和磁盘的潜力;

  • 尝试通过创建多张 Kafka Table 和 Materialized View 写入同一张表,但是对于运维会比较麻烦。

解决方案:支持多线程消费。

前面提到的优化手段都不尽如人意,最后决定改造 Kafka Engine 在其内部支持多个消费线程,简单来说就是每一个线程它持有一个消费者,然后每一个消费者负责各自的数据解析、数据写入,这样的话就相当于一张表内部同时执行多个的 INSERT Query。

效果:通过多线程实现多消费者同时消费写入表,写入性能达到接近于线性的提升。

问题三:出现故障无法保证数据完整性

挑战:在主备模式下,如果数据同时两个节点都写入,一旦一个节点出现故障,新启的节点恢复过程中容易出现各种问题,包括性能下降,无法保证分片,最严重可能导致查询结果不正确 解决方案:确保主备模式下只会写入一个主备其中一个节点。

为了避免两个节点消费这个数据,改进版的 Kafka Engine 参考了 ReplicatedMergeTree 基于 ZooKeeper 的选主逻辑。对于每一对副本的一对消费者,会尝试在 ZooKeeper 上完成选主逻辑,确保选举成为主节点的消费者才能消费,另一个节点则会处于一个待机状态。

有了这样的单节点消费机制, 系统会检测 ReplicatedMergeTree 表数据是否完整,如果数据不完整则代表不能正常服务,此时消费者会主动出让 Leader,让副本节点上成为消费者,也就是新写入的数据并不会写入到缺少数据的节点,对于查询而言,由于查询路由机制的原因也不会把 Query 路由到缺少数据的节点上,所以一直能查询到最新的数据。

效果:改进 Kafka Engine 确保主备模式下只有一个节点能消费数据,即使出现节点故障在新节点恢复过程中同样保障了解决了数据完整性的问题。

广告投放实时数据

第二个典型案例关于广告的投放数据,一般是运营人员需要查看广告投放的实时效果。由于业务的特点,当天产生的数据往往会涉及到多天的数据。这套系统原来基于 Druid 实现的,Druid 在这个场景会有一些难点:

选择了 ClickHouse 之后能解决 Druid 不足的地方,但还是有部分问题需要解决:

问题一:Buffer Engine 无法和 ReplicatedMergeTree 一起使用

问题 & 挑战:社区提供了 Buffer Engine 为了解决单次写入生成过多 Parts 的问题, 但是不太能配合 ReplicatedMergeTree 一起工作, 写入不同 Replica 的 Buffer 仅缓存了各自节点上新写入的数据,导致查询会出现不一致的情况。

解决方案

改进了 Buffer Engine 做了如下的调整和优化:

  • 我们选择将 Kafka/Buffer/MergeTree 三张表结合起来,提供的接口更加易用;

  • 把 Buffer 内置到 Kafka Engine 内部, 作为 Kafka Engine 的选项可以开启/关闭,使用更方便;

  • Buffer table 内部类似 pipeline 模式处理多个 Block;

  • 支持了 ReplicatedMergeTree 情况下的查询。

首先确保一对副本仅有一个节点在消费,所以一对副本的两个 Buffer 表,只有一个节点有数据。如果查询发送到了没有消费的副本,会额外构建一个特殊的查询逻辑,从另一个副本的 Buffer 表里读取数据。

效果:增强 Buffer Engine,解决了Buffer Engine 和 ReplicatedMergeTree 同时使用下查询一致性的问题。

问题二:出现宕机后可能会出现数据丢失后者重复消费的情况

挑战:ClickHouse 缺少事务支持。一批次写入只写入部分 Part 后出现宕机,因为没有事务保障重启后可能出现丢失或者重复消费的情况。

解决方案

参考了 Druid 的 KIS 方案自己管理 Kafka Offset,实现单批次消费/写入的原子语义:实现上选择将 Offset 和 Parts 数据绑定在一起,增强了消费的稳定性。 每次消费时,会默认创建一个事务,由事务负责把 Part 数据和 Offset 一同写入磁盘中,如果出现失败,事务会一起回滚 Offset 和写入的 Part 然后重新消费。

效果:确保了每次插入数据的原子性,增强了数据消费的稳定性。

小结

实时数据分析是 ClickHouse 的优势场景,结合字节跳动实时数据场景的特点,我们对 ClickHouse 进行了优化和改造,并将这些能力沉淀到了 ByteHouse 上。ByteHouse 基于自研技术优势和超大规模的使用经验,为企业大数据团队带来新的选择和支持,以应对复杂多变的业务需求,高速增长的数据场景。未来,ByteHouse 将不断以字节和外部最佳实践输出行业用户,帮助企业更好地构建交互式大数据分析平台,并更广泛地与 ClickHouse 研发者社群共享经验,共同推动 ClickHouse 社区的发展。

关于bytehouse你想知道的一切,看这一篇就够了

ByteHouse的前世今生字节跳动最早是在2017年底开始使用ClickHouse的,用于支撑增长分析的业务场景。对于字节跳动而言,增长分析的重要性不言而喻。这是一项十分考验运营团队能力的工作,如何衡量不同运营方法的有... 查看详情

从mysql到clickhouse实时复制与实现

ClickHouse可以挂载为MySQL的一个从库,先全量再增量的实时同步MySQL数据,这个功能可以说是今年最亮眼、最刚需的功能,基于它我们可以轻松的打造一套企业级解决方案,让OLTP和OLAP的融合从此不再头疼。目前支持MySQL5.6/5.7/8.0版... 查看详情

bytehouse技术白皮书正式发布,云数仓核心技术能力首次全面解读(内附下载链接)

...擎云原生数据仓库ByteHouse技术白皮书》简述了ByteHouse基于ClickHouse引擎的发展历程,首次详细展现ByteHouse的整体架构设计及自研核心技术,为云原生数据仓库发展,及企业数字化转型实战运用提供最新的参考和启迪。三“高”一... 查看详情

clickhouse微信基于clickhouse的实时数仓

...1日过年了过年了发几个博客庆祝一下。1.概述直播回放:ClickHouseOnlineSummerMeetupChina20222、背景数据分析场景2.Hadoop数仓下的困境视频号等推荐系统的对个性化体验强烈诉求,催生了“亚秒级”分析系统的诞生设计目标:亚秒级响应:... 查看详情

基于emrolap的开源实时数仓解决方案之clickhouse事务实现

...:阿里云EMROLAP与Flink团队深度合作,支持了Flink到ClickHouse的Exactly-Once写入来保证整个实时数仓数据的准确性。本文介绍了基于EMROLAP的开源实时数仓解决方案。作者简介:阿里云EMR-OLAP团队;主要负责开源大数据OLAP... 查看详情

基于emrolap的开源实时数仓解决方案之clickhouse事务实现

...:阿里云EMROLAP与Flink团队深度合作,支持了Flink到ClickHouse的Exactly-Once写入来保证整个实时数仓数据的准确性。本文介绍了基于EMROLAP的开源实时数仓解决方案。作者简介:阿里云EMR-OLAP团队;主要负责开源大数据OLAP... 查看详情

clickhouse在爱奇艺实时数仓的应用

众所周知,爱奇艺拥有海量视频,在视频生产过程中产生的上千QPS的实时数据、T级别的数据存储。要支持这样的数据进行即席查询和多个大表的JOIN,是爱奇艺视频生产团队大数据应用的难点。具体来说有以下几点... 查看详情

clickhouse在爱奇艺实时数仓的应用

众所周知,爱奇艺拥有海量视频,在视频生产过程中产生的上千QPS的实时数据、T级别的数据存储。要支持这样的数据进行即席查询和多个大表的JOIN,是爱奇艺视频生产团队大数据应用的难点。具体来说有以下几点... 查看详情

clickhouse在爱奇艺视频生产实时数仓的应用

众所周知,爱奇艺拥有海量视频,在视频生产过程中产生的上千QPS的实时数据、T级别的数据存储。要支持这样的数据进行即席查询和多个大表的JOIN,是爱奇艺视频生产团队大数据应用的难点。具体来说有以下几点... 查看详情

mysql到clickhouse实时数据同步实操分享

...一种方式,可以非常方便地完成MySQL数据实时同步到ClickHouse,跟大家分享一下,希望对你有帮助。MySQL到ClickHouse实时数据同步实操分享本次MySQL数据实时同步到ClickHouse大概只花了几分钟就完成。使用的工具是TapdataCloud... 查看详情

mysql到clickhouse实时数据同步实操分享

...一种方式,可以非常方便地完成MySQL数据实时同步到ClickHouse,跟大家分享一下,希望对你有帮助。MySQL到ClickHouse实时数据同步实操分享本次MySQL数据实时同步到ClickHouse大概只花了几分钟就完成。使用的工具是TapdataCloud... 查看详情

以100gbssb性能测试为例,通过bytehouse云数仓开启你的数据分析之路(代码片段)

...化利用资源,从而达到Payasyougo按实际用量付费的模式。ByteHouse作为云原生的数据平台,从架构层面入手,通过存储和计算分离的云原生架构完美适配云上基础设施。在字节跳动内部,ByteHouse已经支持80%的分析应用场景,包括用... 查看详情

从 Clickhouse DB 中完全删除数据以节省磁盘空间

】从ClickhouseDB中完全删除数据以节省磁盘空间【英文标题】:FullydeletedatafromClickhouseDBtosavediskspace【发布时间】:2021-06-2409:30:03【问题描述】:为了释放磁盘空间,我删除了clickhouse数据库中的一些旧表DROPTABLEmydb.mytable但是,磁盘... 查看详情

火山引擎云原生数据仓库bytehouse技术白皮书v1.0(ⅳ)

...ByteHouse技术白皮书》正式发布。白皮书简述了ByteHouse基于ClickHouse引擎的发展历程,首次详细展现ByteHouse的整体架构设计及自研核心技术,为云原生数据仓库发展,及企业数字化转型实战运用提供最新的参考和启迪。以下为ByteHous... 查看详情

如何检查 clickhouse 数据库服务器实时/活动连接

】如何检查clickhouse数据库服务器实时/活动连接【英文标题】:Howtocheckclickhousedatabaseserverlive/activeconnections【发布时间】:2021-10-0107:30:18【问题描述】:我正在尝试从控制台检查clickhous数据库(服务器)的活动连接。在MYSQL中有很... 查看详情

clickhouse从入门到放弃(代码片段)

最近公司需要使用clickhouse做数据分析,我赶紧从docker上下载一个,学习学习。学习成本不大,会mysql就行。clickhouse下载分区基本使用下载下载clickhouse包dockerpullyandex/clickhouse-clientdockerpullyandex/clickhouse-server启动clickhouse-... 查看详情

clickhouse从入门到放弃(代码片段)

最近公司需要使用clickhouse做数据分析,我赶紧从docker上下载一个,学习学习。学习成本不大,会mysql就行。clickhouse下载分区基本使用下载下载clickhouse包dockerpullyandex/clickhouse-clientdockerpullyandex/clickhouse-server启动clickhouse-... 查看详情

关于bytehouse你想知道的一切,看这一篇就够了

ByteHouse的前世今生字节跳动最早是在2017年底开始使用ClickHouse的,用于支撑增长分析的业务场景。对于字节跳动而言,增长分析的重要性不言而喻。这是一项十分考验运营团队能力的工作,如何衡量不同运营方法的有... 查看详情