Centos6.5/7 搭建hadoop3.1
一、Centos6.5 配置网卡参数: vi /etc/sysconfig/network-scripts/ifcfg-eth0
ONBOOT=yes
BOOTPROTO=static
IPADDR=
GATEWAY=
NETMASK=255.255.255.0
DNS1=
、
Centos7 配置网卡:vi /etc/sysconfig/network-scripts/ifcfg-ens33
二、ssh免密:把几台主机的密码放进一个密码本,然后每台机子一份。
1.关闭防火墙:service iptables stop
查看防火墙是否关闭:service iptables status (显示is not running 表示已关闭,未运行)
想要开机自动关闭防火墙,把service iptables stop 放入 /etc/profile 中。
2.禁用selinux安全策略:
3. 修改本地DNS解析,vi /etc/hosts
4. 选择加密方式一种1024 一种2048
ssh-****** -t dsa
ssh-****** -t rsa
然后:cd ~/.ssh
cat id_dsa.pub >> authorized_keys
每台pc的authorized_keys 要有所有pc的** 能够实现免密。
三、下载JDK、hadoop 并配置好环境变量。
tar -xvf 包名
tar -zxvf 包名
环境变量:
export JAVA_HOME=
export HADOOP_HOME=
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
四、hadoop文件配置
需要修改的文件在/hadoop/etc/hadoop目录下
第一个core-site.xml 里添加如下 红色的部分为主机的ip或者主机名之前设置过hosts解析
<name>fs.defaultFS</name>
<value>hdfs://NameNode:9000</value>
</property>
<name>hadoop.tmp.dir</name>
<value>/hadoop/tmp</value>
</property>
第二个hadoop-env.sh在里面加入如下代码
export JAVA_HOME=/jdk
export HADOOP_HOME=/hadoop
第三个hdfs-site.xml 第一个红色和第二个红色部分为主机名和备份主机名或者ip都行第三个红色部分为默认备份几份
<configuration>
<name>dfs.namenode.http-address</name>
<value>NameNode:50070</value>
</property>
<name>dfs.namenode.secondary.http-address</name>
<value>StandbyNameNode:50090</value>
</property>
<name>dfs.namenode.name.dir</name>
<value>/hadoop/name</value>
</property>
<name>dfs.replication</name>
<value>2</value>
</property>
<name>dfs.datanode.data.dir</name>
<value>/hadoop/data</value>
</property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<name>mapreduce.application.classpath</name>
<value>
/hadoop/etc/hadoop,
/hadoop/share/hadoop/common/*,
/hadoop/share/hadoop/common/lib/*,
/hadoop/share/hadoop/hdfs/*,
/hadoop/share/hadoop/hdfs/lib/*,
/hadoop/share/hadoop/mapreduce/*,
/hadoop/share/hadoop/mapreduce/lib/*,
/hadoop/share/hadoop/yarn/*,
/hadoop/share/hadoop/yarn/lib/*
</value>
</property>
<name>yarn.resourcemanager.hostname</name>
<value>NameNode</value>
</property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root
保存
主机和子机的环境 及hadoop文档配置要一样,可选择ftp工具覆盖,也可以用下面命令传送到目标ip
启动hadoop:start-all.sh