求助,flume不能从kafka中读取数据并且写入hdfs中

我用的是flume1.8,配置如下:

a1.channels = c1
a1.sinks = k1

#定义kafka-channel
a1.channels.c1.type = org.apache.flume.channel.kafka.KafkaChannel
a1.channels.c1.parseAsFlumeEvent = false
a1.channels.c1.kafka.bootstrap.servers = slave1:9092,slave3:9092,slave4:9092
a1.channels.c1.kafka.topic = incharge
a1.channels.c1.kafka.consumer.group.id = g101

#具体定义sink
a1.sinks.k1.type = hdfs
a1.sinks.k1.hdfs.path = hdfs://master:9000/gamelog/%Y%m%d
a1.sinks.k1.hdfs.useLocalTimeStamp = true
a1.sinks.k1.hdfs.filePrefix = log-
a1.sinks.k1.hdfs.fileType = DataStream
#不按照条数生成文件
a1.sinks.k1.hdfs.rollCount = 0
#HDFS上的文件达到128M时生成一个文件
a1.sinks.k1.hdfs.rollSize = 134217728
#HDFS上的文件达到60秒生成一个文件
a1.sinks.k1.hdfs.rollInterval = 60
a1.sinks.k1.channel = c1
 
 
之后,我在执行:
/root/apache-flume-1.8.0-bin/bin/flume-ng agent -c conf/ -f /root/apache-flume-1.8.0-bin/conf/kafka-hdfs.conf -n a1 -Dflume.root.logger=INFO,console
 
flume直接卡在了如图所示的位置,一直不能创建一个kafka的消费者,这是为啥?
18/07/25 18:01:23 INFO utils.AppInfoParser: Kafka version : 0.9.0.1
18/07/25 18:01:23 INFO utils.AppInfoParser: Kafka commitId : 23c69d62a0cabf06
18/07/25 18:01:23 INFO kafka.KafkaChannel: Created new consumer to connect to Kafka
就到这里,一直不动,HDFS中也没有新的文件夹生成,求各位大哥大姐帮帮我呀!
123.png

要回复问题请先登录注册