flink保证exactly-once机制介绍:checkpoint及twophasecommitsinkfunction(代码片段)

宝哥大数据 宝哥大数据     2022-11-29     343

关键词:

文章目录

一、前言

我们知道exactly-once,大多知道有checkpoint,但是在Flink1.4之后,又新增了端到端的exactly-once。也就是输入和输出是对应的,没有丢失和重复。

1.1、Flink-1.4之前的exactly-once实现

Flink的基本思路就是将状态定时地checkpiont到hdfs中去,当发生failure的时候恢复上一次的状态,然后将输出update到外部。这里需要注意的是输入流的offset也是状态的一部分,因此一旦发生failure就能从最后一次状态恢复,从而保证输出的结果是exactly once。

1.2、Flink-1.4之后的exactly-once实现

2017年12月,apache flink 1.4.0发布。其中有一个里程碑式的功能:两步提交的sink function(TwoPhaseCommitSinkFunction,relevant Jira here)。TwoPhaseCommitSinkFunction 就是把最后写入存储的逻辑分为两部提交,这样就有可能构建一个从数据源到数据输出的一个端到端的exactly-once语义的flink应用。当然,TwoPhaseCommitSinkFunction的数据输出包括apache kafka 0.11以上的版本。flink提供了一个抽象的TwoPhaseCommitSinkFunction类,来让开发者用更少的代码来实现端到端的exactly-once语义。

Flink的 checkpoint在保证exactly-once内部应用exactly-once,不需要重复计算等
Flink是通过两步提交协议来保证从数据源到数据输出的exactly-once语义(外部)

接下来,我们通过一个例子来解释如果应用TwoPhaseCommitSinkFunction来实现一个exactly-oncesink

二、Exactly-once Tow Phase Commit

下面我们来看看flink消费并写入kafka的例子是如何通过两部提交来保证exactly-once语义的。

注意: 因为只有kafka0.11开始支持事物操作,若要使用flink端到端exactly-once语义需要flinksinkkafka0.11版本以上的。 同时 DELL/EMCPravega 也支持使用flink来保证端到端的exactly-once语义。

这个例子包括以下几个步骤:

  • kafka读取数据
  • 一个聚合窗操作
  • 向kafka写入数据

为了保证exactly-once,所有写入kafka的操作必须是事务的。在两次checkpiont之间要批量提交数据,这样在任务失败后就可以将没有提交的数据回滚。

然而一个简单的提交和回滚,对于一个分布式的流式数据处理系统来说是远远不够的。下面我们来看看flink是如何解决这个问题的。

Flink官方推荐所有需要保证exactly once的Sink逻辑都继承该抽象类。它定义了如下4个抽象方法,需要子类实现。

	// 开始一个事务,返回事务信息的句柄。
    protected abstract TXN beginTransaction() throws Exception;
	// 预提交(即提交请求)阶段的逻辑。
    protected abstract void preCommit(TXN transaction) throws Exception;
	// 正式提交阶段的逻辑。
    protected abstract void commit(TXN transaction);
	// 取消事务。
    protected abstract void abort(TXN transaction);

2.1、预提交 (preCommit)

首先我们看下 preCommit 代码实现。

    @Override
    protected void preCommit(FlinkKafkaProducer.KafkaTransactionState transaction)
            throws FlinkKafkaException 
        switch (semantic) 
            case EXACTLY_ONCE:
            case AT_LEAST_ONCE:
                flush(transaction); // 实际上是代理了KafkaProducer.flush()方法。
                break;
			// .....
        
    

preCommitTwoPhaseCommitSinkFunction#snapshotState()中调用

TwoPhaseCommitSinkFunction也继承了CheckpointedFunction接口,所以2PC是与检查点机制一同发挥作用的。

每当需要做checkpoint时,JobManager就在数据流中打入一个屏障(barrier),作为检查点的界限。屏障随着算子链向下游传递,每到达一个算子都会触发将状态快照写入状态后端(state BackEnd)的动作。当屏障到达Kafka sink后,触发preCommit(实际上是KafkaProducer.flush())方法刷写消息数据,但还未真正提交。接下来还是需要通过检查点来触发提交阶段。

2.2、提交阶段

    @Override
    protected void commit(FlinkKafkaProducer.KafkaTransactionState transaction) 
        if (transaction.isTransactional()) 
            try 
            	// 实际上是代理了KafkaProducer.commitTransaction()方法,正式向Kafka提交事务。
                transaction.producer.commitTransaction();
             finally 
                recycleTransactionalProducer(transaction.producer);
            
        
    

该方法的调用点位于TwoPhaseCommitSinkFunction.notifyCheckpointComplete()方法中。顾名思义,当所有检查点都成功完成之后,会回调这个方法。

该方法每次从正在等待提交的事务句柄中取出一个,校验它的检查点ID,并调用commit()方法提交之。

参考

https://www.aboutyun.com/forum.php?mod=viewthread&tid=27395
https://dandelioncloud.cn/article/details/1441622512370266113
https://flink.apache.org/features/2018/03/01/end-to-end-exactly-once-apache-flink.html

flink容错机制介绍(代码片段)

...序在发生故障后可能多算,但是绝不会少算严格一次-exactly-once系统保证在发生故障后得到的计数结果与正确值一致;既不多算也不少算Flink可以做到既保证严格一次exactly-once,又具有低延迟和高吞吐的处理能力。1-2.... 查看详情

flink——exactly-once

...,基于轻量级分布式快照checkpoint机制,从而自动实现了Exactly-Once一致性语义。1.数据源端支持可靠的数据源(如kafka),数据可重读ApacheFlink内置FlinkKafkaConsumer010类,不依赖于kafka内置的消费组offset管理,在内部自行记录和维护consumer... 查看详情

flink容错机制checkpoint生成与恢复流程

...检查点是如何恢复和生成的,看它们是如何保证精确一次Exactly-Once语义的状态一致性。1.一致性检查点Flink的故障恢复机制的核心需要基于应用状态的一致性 查看详情

flinkcheckpoint机制分析(代码片段)

...故障之前某个状态。同时,Checkpoint机制也是Flink实现Exactly-Once语义的基础。本文将介绍Flink的Checkpoint机制的原理,并从源码层面了解Checkpoint机制是如何实现的(基于Flink1.10)。1.为什么需要CheckpointFlink是有状态的... 查看详情

flink如何管理kafka消费位点(译文)

...ckpoint的完成。因此,当任务从故障中恢复时,Flink保证了exactly-once。下面将一步一步的演示Flink是如何通过checkpoint来管理Kafka的offset的。下面的例子从两个分区的Kafkatopic中读取数据,每个分区的数据是“A”,“B”,“C”,”D”,“E... 查看详情

端到端的精确一次保证

...能会重复写出数据到Sink中,你们公司是怎么做到端对端exactly-once的?端对端exactly-once有3个条件:⭐Source引擎可以重新消费,比如Kafka可以重置offset进行重新消费⭐Flink任务配置exactly-once,保证Flink任务State的exactly-once⭐... 查看详情

flinkexactly-once投递实现浅析

...提高,其中最为关键的是如何在不同业务场景下保证exactly-once的投递语义。虽然不少实时系统(e.g.实时计算/消息队列)都宣称支持exactly-once,exactly-once投递似乎是一个已被解决的问题,但是其实它们更多是针... 查看详情

flinkexactly-once投递实现浅析

...提高,其中最为关键的是如何在不同业务场景下保证exactly-once的投递语义。虽然不少实时系统(e.g.实时计算/消息队列)都宣称支持exactly-once,exactly-once投递似乎是一个已被解决的问题,但是其实它们更多是针... 查看详情

基于emrolap的开源实时数仓解决方案之clickhouse事务实现

...云EMROLAP与Flink团队深度合作,支持了Flink到ClickHouse的Exactly-Once写入来保证整个实时数仓数据的准确性。本文介绍了基于EMROLAP的开源实时数仓解决方案。作者简介:阿里云EMR-OLAP团队;主要负责开源大数据OLAP引擎的研... 查看详情

基于emrolap的开源实时数仓解决方案之clickhouse事务实现

...云EMROLAP与Flink团队深度合作,支持了Flink到ClickHouse的Exactly-Once写入来保证整个实时数仓数据的准确性。本文介绍了基于EMROLAP的开源实时数仓解决方案。作者简介:阿里云EMR-OLAP团队;主要负责开源大数据OLAP引擎的研... 查看详情

flinkflink写入kafka中关于exactly-once的一些思考(代码片段)

1.概述首先看看文章:【Flink】介绍Flink中状态一致性的保证根据文章内容化,我们知道kafka写写入是2阶段提交。2阶段提交看起来挺令人迷惑的,其实就是分2中情况嘛。1.1sink带事务带事务的sink端,一般都MySQL,Oracle... 查看详情

flink介绍flink中状态一致性的保证

1.概述转载:介绍Flink中状态一致性的保证再次温习了这篇文章有了不一样的收货。侵权可删,这里是方便自己找到。1.一致性1.1介绍状态一致性有状态的流处理,内部每个算子任务都可以有自己的状态对于流处理器内... 查看详情

深入了解flink如何实现端到端的exactly-once处理语义

...(包括ApacheKafka0.11版本以及更高版本)之间构建端到端的Exactly-Once语义的应用程序成为可能。它提供了一个抽象层,用户只需实现几个方法就可以实现端到端的Exactly-Once语义。如果这就是你需要了解的全部内容,可以去这个地方... 查看详情

21.flink-高级特性-新特性-exactly-once数据一致性语义分类如何实现局部的exactly-once分布式快照/checkpoint(代码片段)

21.Flink-高级特性-新特性-End-to-EndExactly-Once21.1.数据一致性语义分类21.2.数据一致性语义详解21.2.1.At-most-once-最多一次21.2.2.At-least-once-至少一次21.2.3.Exactly-once-精确一次21.2.4.End-To-EndExactly-Once21.2.5.如何实现局部的Exactly-Once21.2 查看详情

21.flink-高级特性-新特性-exactly-once数据一致性语义分类如何实现局部的exactly-once分布式快照/checkpoint(代码片段)

21.Flink-高级特性-新特性-End-to-EndExactly-Once21.1.数据一致性语义分类21.2.数据一致性语义详解21.2.1.At-most-once-最多一次21.2.2.At-least-once-至少一次21.2.3.Exactly-once-精确一次21.2.4.End-To-EndExactly-Once21.2.5.如何实现局部的Exactly-Once21.2 查看详情

flink窗口window机制详解(代码片段)

...从Streaming到Batch的一个桥梁。Flink提供了非常完善的窗口机制,这是我认为的Flink最大的亮点之一(其他的亮点包括消息乱序处理,和checkpoint机制)。本文我们将介绍流式处理中的窗口概念,介绍Flink内建的一些窗口和Windo 查看详情

flink学习(代码片段)

...ggreement)是完全不相同的:流处理一般需要支持低延迟、Exactly-once保证,而批处理需要支持高吞吐、高效处理。Fl 查看详情

最全的大数据面试系列flink面试题大全

...中TaskSlot的概念7.Flink的重启策略了解吗8.Flink是如何保证Exactly-once语义的9.如果下级存储不支持事务,Flink怎么保证exactly-once10.Flink是如何处理反压的11.Flink中的状态存储12.Flink是如何支持批流一体的13.Flink的内存管理是如何做的... 查看详情