奔跑的大象

奔跑的大象

威望 : 1 赞同 : 4 感谢 : 0

擅长话题

更多 »回复

0

建议使用maven工程

0

为什么不flume导入kafka,spark streaming消费kafka数据呢?

1

本地/etc/hosts加入那你几台机器,exception 明显是unknownHostException

0

重新编辑回去。 删掉自己在profile的配置 使用/usr/bin/vim 重新加载配置文件   建议在/etc/profile.d/下面新建一个my.sh添加到里面。避免误操作。

1

10M大小滚动一个文件,具体10240地方自己改{{{ tier1.sinks.sink1.type = hdfs tier1.sinks.sink1.hdfs.path = /data/flume/%{topic}/%Y-%m-%d tier1.sink...

0

hadoop fs (HDFS文件系统相关命令) Usage: hadoop fs [-cat ...] [-chgrp GROUP PATH...] [-chmod PATH...] [-chown [:] PATH...] ...

0

貌似这样也可以解决:/homework/week2/input/1/Sep-2013/Sep-2013-0/*

0

ls /consumers 换位 get /consumers呢?

1

API例子你最好通过读doc来自己实践,其实调用API是最简单也是最好的了解HDFS入口,有时间还是看看如何实现的吧。比如下面:源码面前毫无秘密! /** * The src file is on the local disk. Add it to ...

0

注意是否API调用有误!~

更多 »发问

没有内容

发问

回复

文章

最新动态

我的交易

类型 时间 数额 支付方式 状态 描述

提现记录

时间 金额 卡号 银行 持卡人 手续费 状态 描述

审核记录

时间 类型 状态 描述
更多 » 关注 13

colincheng admin ChinaHadoop hello_world yanglei

更多 » 17 人关注

jz20171231 嘿葐呦 林同学 jirimutu jianl_39

关注 4 话题
主页访问量 : 4121 次访问