Linux上Eclipse集成hadoop文档详解
Eclipse运行wordcount文档
1.需要下载Eclipse
a) 官方网址https://www.eclipse.org/downloads/
2.下载ant
a) 官方网址https://ant.apache.org
a) 官方网址https://github.com/winghc/hadoop2x-eclipse-plugin
4.解压eclipse 、ant 、hadoop2x-eclipse-plugin到合适的位置
5.配置ANT_HOME
a) vi /etc/profile
b) #ANT_HOME
export ANT_HOME=/opt/modules/apache-ant-1.9.9
export PATH=$PATH:$ANT_HOME/bin
c) source /etc/profile 立即生效配置文件
d) ant -version 查看是否配置正确
6.到hadoop2x-eclipse-plugin编译源码
a) 本处过于繁复,另开一份文档详述
7.将编译好的jar文件copy到Eclipse
a) /opt/tools/eclipse/plugins
8.启动HDFS服务
a) $ sbin/start-dfs.sh
9.进入Ecliose目录 启动eclipse
a) 命令启动方式:./eclipse
b) 图形启动方式:直接点击eclipse
10.进入后配置Hadoop安装目录
a) window-》preference-》hadoop Map/Reduce-》Hadoop installation directory
11.配置Map/Reduce视图
a) windows -》 Open Perspective -》other -》Map/Reduce -》点击“OK”
b) windows -》 show view -》 other -》Map/Reduce Locations -》点击“OK”
12.在“Map/Reduce Locations”Tab页点击图片<大象> 进行相应配置
14.打开Project Explorer 查看HDFS文件系统。