Hadoop将本地文件复制到HDFS?
我试图将名为'afile'的本地文件复制到HDFS。 所以我跑以下命令:Hadoop将本地文件复制到HDFS?
'的Hadoop FS -copyFromLocal /家/新/å文件在' 或 'Hadoop的FS -put /家/新/å文件在'
然而,它说: '文件/ home/neo/afile不存在'
然后我把文件'afile'放到hadoop目录下。现在copyFromLocal成功了。然而,文件'in'是空的,因为我运行 'hadoop fs - ls',它显示
'-rw-r - r--'1 neo supergroup 0 2015-04-06 17:45/user/neo/in
我也试过'hadoop fs -cat in',没有任何返回。
有人可以帮忙吗?
谢谢! hadoop fs -mkdir /user/neo/in/
复制文件:echo "sample text for wordcount" > /home/neo/test.txt
使用创建HDFS一个新的目录:
在
/home/neo/
内容添加到
test.txt
中创建一个名为test.txt
本地文件系统中的新文件从本地目录到HDFS:hadoop fs -copyFromLocal /home/neo/test.txt /user/neo/in/test.txt
文件'test.txt'可以复制到HDFS。但是,它仍然是HDFS上的一个空文件。 –
@NeoXU如前所述'文件内容是一个简单的文本:'是或不是',将这些内容添加到本地文件系统的test.txt中,然后尝试将其上传到HDFS。如果你得到的文件已经存在的问题,做这个'hadoop fs -rmr/user/neo/in/test.txt',然后尝试上传。 –
非常感谢!但仍然不起作用。我还有一个空文件。 –
分享命令的输出“ls -ltr/home/neo/afile” – sachin
“afile”包含什么?同时发布'ls -l/home/neo /'的结果。 –
@ h4ck3r命令'ls -ltr/home/neo/afile'的结果是:'-rw-rw-r-- 1 neo neo 19 Apr 6 17:17/home/neo/afile –