Hadoop的安装
- 彻底关闭防火墙 chkconfig iptables off
- 查看主机名 hostname
- 修改主机名 vim /etc/sysconfig/network
- 修改之后不会立即执行需要重启才会生效,重启指令reboot
临时生效hostname Hadoop01
修改host文件 vim /etc/hosts - 将主机ip与主机名进行映射
- 设置免密登录 ssh-******—一直回车
- 执行操作ssh-copy-id [email protected]—在这输入密码
- 安装hadoop
首先进入home目录下创建software文件夹
- 使用xftp连接虚拟机----将hadoop以及jdk的安装包拖到/home/software目录下
- 执行rz指令之后开始上传hadoop、JDK安装包成功,开始解压2个安装包
tar -xvf hadoop。。。
- 配置jdk环境变量vim /etc/profile
JAVA_HOME=/home/Software/jdk8
CLASSPATH=.:JAVA_HOME/lib/tools.jar
PATH=PATH
export JAVA_HOME PATH CLASSPATH
让环境变量立即生效source /etc/profile jdk配置是否成功java -version
将解压的安装包进行重命名mv Hadoop-**** Hadoop - 进入到hadoop目录下的etc下的hadoop下修改配置文件vim Hadoop-env.sh
- 修改core-site.xml vim core-site.xml
- 修改hdfs-site.xml vim hdfs-site.xml
- 修改 mapred-site.xml
这个文件初始时是没有的,有的是模板文件,mapred-site.xml.template
所以需要拷贝一份,并重命名为mapred-site.xml
执行:cp mapred-site.xml.template mapred-site.xml - 修改yarn-site.xml
- 配置slaves文件
- 在hadoop文件目录下创建tmp文件
- 配置hadoop的环境变量 vim /etc/profile
- 格式化namenode
执行:hadoop namenode -format
如果不好使,可以重启linux
当出现:successfully,证明格式化成功
进入到hadoop目录下的sbin目录 执行 sh start-dfs.sh 之后执行jps查看
在浏览器启动hadoop01:50070查看
配置eclipse
将hadoop插件hadoop-eclipse-plugin-2.7.1放到eclipse的plugins目录下(打开eclipse)
在本地解压hadoop安装包