使用flume将数据sink到kafka

瓶子xf 瓶子xf     2022-11-18     662

关键词:

flume采集过程:

 

#说明:案例是flume监听目录/home/hadoop/flume_kafka采集到kafka;

启动集群

启动kafka,

启动agent,
flume-ng agent -c . -f /home/hadoop/flume-1.7.0/conf/myconf/flume-kafka.conf -n a1 -Dflume.root.logger=INFO,console
开启消费者
kafka-console-consumer.sh --zookeeper hdp-qm-01:2181 --from-beginning --topic mytopic

生产数据到kafka
数据目录:
vi /home/hadoop/flume_hbase/word.txt
12345623434

配置文件
vi flume-kafka.conf
#Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1

#Describe/configure the source
a1.sources.r1.type = spooldir
a1.sources.r1.spoolDir=/home/hadoop/flume_kafka

# Describe the sink
a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink
a1.sinks.k1.kafka.topic = mytopic
a1.sinks.k1.kafka.bootstrap.servers = hdp-qm-01:9092
a1.sinks.k1.kafka.flumeBatchSize = 20
a1.sinks.k1.kafka.producer.acks = 1
a1.sinks.k1.kafka.producer.linger.ms = 1
a1.sinks.ki.kafka.producer.compression.type = snappy

# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

flume基础知识

...rcesource负责数据源的对接,根据数据源的类型不同,需要使用不同类型的source监控某个端口数据:netcatsource监控某个目录,一旦有新文件就上传:spoolingdirectorysource监控某个目录日志的变化:tairdirsource对接上一个agent:avrosourcesin... 查看详情

使用flume将数据sink到hbase

===========>先创建Hbase表和列族<================案例1:源数据一行对应Hbase的一列存储(hbase-1.12没有问题)================================================================================#说明:案例是flume监听目录/home/hadoop/flume_h 查看详情

flume自定义hbasesink

...source,三个channel,三个sink,因为我需要三个列族,如果使用官方的hbasesink那么需要三个sink。而且需要自定义一个source的拦截器,根据kafka获取的数据匹配不不同的channel,三个channel对应三个列族,然后配置到sink,就可以使用官... 查看详情

flume从kafka消费数据到hdfs

#source的名字agent.sources=kafkaSource#channels的名字,建议按照type来命名agent.channels=memoryChannel#sink的名字,建议按照目标来命名agent.sinks=hdfsSink#指定source使用的channel名字agent.sources.kafkaSource.channels=memoryChannel#指定sin 查看详情

kafka怎么收集到flume的日志

参考技术A采集层主要可以使用Flume,Kafka两种技术。Flume:Flume是管道流方式,提供了很多的默认实现,让用户通过参数部署,及扩展API.Kafka:Kafka是一个可持久化的分布式的消息队列。Kafka是一个非常通用的系统。你可以有许多生... 查看详情

flume简介与使用——kafkasink消费数据之kafka安装

  前面已经介绍了如何利用ThriftSource生产数据,今天介绍如何用KafkaSink消费数据。  其实之前已经在Flume配置文件里设置了用KafkaSink消费数据agent1.sinks.kafkaSink.type=org.apache.flume.sink.kafka.KafkaSinkagent1.sinks.kafkaSink.topic=TRAFFIC_LOGagen... 查看详情

flume从kafka读取数据到hdfs中的配置

#source的名字agent.sources=kafkaSource#channels的名字,建议按照type来命名agent.channels=memoryChannel#sink的名字,建议按照目标来命名agent.sinks=hdfsSink#指定source使用的channel名字agent.sources.kafkaSource.channels=memoryChannel#指定sin 查看详情

[flume][kafka]flume与kakfa结合例子(kakfa作为flume的sink输出到kafkatopic)

Flume与Kakfa结合例子(Kakfa作为flume的sink输出到Kafkatopic)进行准备工作:$sudomkdir-p/flume/web_spooldir$sudochmoda+w-R/flume 编辑flume的配置文件:$cat/home/tester/flafka/spooldir_kafka.conf#Namethecomponentsonthisagentage 查看详情

flume整合kafka(基于kerberos认证)——完成实时数据采集(代码片段)

...,现在的kafka是采用了Kerberos认证,所以要想在flume之中去使用kafka操作,就需要考虑到开发包以及jaas配置问题。1、将kafka的客户端的程序jar文件拷贝到flume的li 查看详情

Kafka Connect:如何使用 hdfs sink 连接器将 Kafka 主题的 protobuf 数据发送到 HDFS?

】KafkaConnect:如何使用hdfssink连接器将Kafka主题的protobuf数据发送到HDFS?【英文标题】:KafkaConnect:HowcanIsendprotobufdatafromKafkatopicstoHDFSusinghdfssinkconnector?【发布时间】:2017-04-0722:09:19【问题描述】:我有一个生产者正在为某个主题生... 查看详情

flume将数据发送到kafkahdfshivehttpnetcat等模式的使用总结

1、source为http模式,sink为logger模式,将数据在控制台打印出来。conf配置文件如下:#Namethecomponentsonthisagenta1.sources=r1a1.sinks=k1a1.channels=c1 #Describe/configurethesourcea1.sources.r1.type=http#该设置表示接收通过http方式发送过来的数据 查看详情

flume对接kafka

参考技术A一、flume配置 1、kafka.conf   #namea1.sources=r1a1.channels=c1a1.sinks=k1#sourcea1.sources.r1.type=netcata1.sources.r1.bind=localhosta1.sources.r1.port=44444#channela1.channels.c1.type=memorya1.channels.c1.capacity=1000a1.channels.c1.transactionCapacity=100#sink... 查看详情

无法使用镜头 kudu sink 连接器将数据从 kafka 主题插入或更新到 kudu 表

】无法使用镜头kudusink连接器将数据从kafka主题插入或更新到kudu表【英文标题】:unabletoinsertorupsertdatafromkafkatopictokudutableusinglenseskudusinkconnector【发布时间】:2020-07-0705:31:59【问题描述】:lenseskudusink连接器版本=kafka-connect-kudu-1.2.3... 查看详情

flume从kafka中读取数据

a1.sources=r1a1.sinks=k1a1.channels=c1#使用内置kafkasourcea1.sources.r1.type=org.apache.flume.source.kafka.KafkaSource#kafka连接的zookeepera1.sources.r1.zookeeperConnect=localhost:2181a1.sources.r1.topic=kkt 查看详情

flume的概述和安装部署

...和许多故障转移和恢复机制,具有强大的容错能力。Flume使用简单的的可扩展数据模型,循环在线分析应用程序。 二、Flume的作用  数据的来源大致有三类:  1.爬虫  2.日志数据   =>使用Flume进行获取传输  3.... 查看详情

flume读取rabbitmq消息队列消息,并将消息写入kafka

...关于flume的基础介绍组件名称  功能介绍Agent代理使用JVM运行Flume。每台机器运行一个agent,但是可以在一个agent中包含多个sources和sinks。Client客户端生产数据,运行在一个独立的线程。Source源从Client收集数据,传递给Channel... 查看详情

flume(代码片段)

...me会进行缓冲,减小hdfs的压力。flume中的事务基于channel,使用了两个事务模型(sender+receiver),确保消息被可靠发送。Flume使用两个独立的事务分别负责从soucrce到channel,以及从channel到sink的事件传递。一旦事务中所有的数据全部... 查看详情

在windows中实现flume日志收集

...主要有三个组件: Source:消费web系统这样的外部数据源中的数据(一般就是web系统产生的日志),外部数据源会向flume发送某种能被flume识别的格式的事件,有以下几种类型:avro、exec、jms、spoolingdirect... 查看详情