Hadoop实例运行
1、要使用 HDFS,首先需要在 HDFS 中创建用户目录,也可以使用默认根目录:
zhaojunyandeMacBook-Pro:~ zhaojunyan$ hdfs dfs -mkdir -p /usr/hadoop
默认根目录是hdfs://localhost:9000/user/zhaojunyan
2、创建input目录,并拷贝文件
zhaojunyandeMacBook-Pro:~ zhaojunyan$ hdfs dfs -mkdir input
zhaojunyandeMacBook-Pro:~ zhaojunyan$ hdfs dfs -put /myFile/04.BigData/hadoop-2.7.0/input/*.txt input
3、查看拷贝的文件
zhaojunyandeMacBook-Pro:~ zhaojunyan$ hdfs dfs -ls input
Found 2 items
-rw-r--r-- 1 zhaojunyan supergroup 12 2017-05-21 22:35 input/test1.txt
-rw-r--r-- 1 zhaojunyan supergroup 13 2017-05-21 22:35 input/test2.txt
4、查文件中的内容
zhaojunyandeMacBook-Pro:~ zhaojunyan$ hdfs dfs -cat input/test1.txt
hello world
zhaojunyandeMacBook-Pro:~ zhaojunyan$ hdfs dfs -cat input/test2.txt
hello hadoop
5、运行zhaojunyandeMacBook-Pro:~ zhaojunyan$ hadoop jar /myFile/04.BigData/hadoop-2.7.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.0.jar wordcount input output
6、查看结果
zhaojunyandeMacBook-Pro:~ zhaojunyan$ hdfs dfs -cat output/*
hadoop 1
hello 2
world 1
zhaojunyandeMacBook-Pro:~ zhaojunyan$