cdh安装
关于 CDH 和 Cloudier Manager
CDH (Cloudera's Distribution,including Apache Hadoop),是Hadoop
众多分支中的一种,由Cloudera维护,基于稳定版本的Apache Hadoop构建,
并集成了很多补丁,可直接用于生产环境。
ClouderaManager则是为了便于在集群中进行Hadoop等大数据处理相关的服务安装和监控管理的组件,对集群中主机、Hadoop、Hive、Spark等服务
的安装配置管理做了极大简化。
一、系统环境
操作系统:CentOS 6.7 x64 (内存4G以上)
Cloudera Manager:5.1.3
CDH: 5.1.3
二、 安装说明
采用离线安装。
1.相关包的下载地址
Cloudera Manager下载地址:
http://archive.cloudera.com/cm5/cm/5/cloudera-manager-el6-
CDH安装包地址:
http://archive.cloudera.com/cdh5/parcels/latest/,由于我们的操作系统
为CentOS6.5,需要下载以下文件:
CDH-5.1.3-1.cdh5.1.3.p0.12-el6.parcel CDH-5.1.3-1.cdh5.1.3.p0.12-el6.parcel.sha1
manifest.json
三、准备工作:系统环境搭建
以下操作均用root用户操作。
1.网络配置(所有节点)
1.1. 修改 hostname
vi/etc/sysconfig/network
NETWORKING=yes
HOSTNAME=n1
1.2. 修改 ip 与主机名的对应关系
vi /etc/hosts
192.168.1.106 n1
192.168.1.107 n2
192.168.1.108 n3
注意:这里需要将每台机器的 ip 及主机名对应关系都写进去,本机的也要写进去,否则启动 Agent 的时候会提示 hostname 解析错误。
2.设置 ssh 无密码登陆
在主节点上执行
1.ssh-****** -t rsa
一路回车,生成无密码的**对。将公钥添加到认证文件中:
1. cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
,并设置 authorized_keys 的访问权限:
1. chmod 600 ~/.ssh/authorized_keys
scp 文件到所有 datenode 节点:
scp ~/.ssh/authorized_keys [email protected]:~/.ssh/ 或者 ssh-copy-id 节点名 |
1.
3.安装 Oracle 的Java(所有节点)
CentOS,自带 OpenJdk,不过运行 CDH5 需要使用 Oracle 的 Jdk,需要 Java 7 的支持。
卸载自带的 OpenJdk,使用
1.rpm -qa | grep java
查询 java 相关的包,使用
1.rpm -e --nodeps
包名卸载之。
去 Oracle 的官网下载jdk 的rpm 安装包,并使用rpm -ivh 包名安装之。
由于是 rpm 包并不需要我们来配置环境变量,我们只需要配置一个全局的 JAVA_HOME变量即可,执行命令:
1. echo "JAVA_HOME=/usr/java/latest/" >> /etc/environment
4.安装配置 MySql(主节点)
通过
yum install mysql mysql-server mysql-devel
/etc/init.d/mysqld start 启动mysq chkconfig mysqld on启动 mysql 控制台:
mysqlmysql>; USE mysql; mysql>;UPDATE user SET Password=PASSWORD('newpassword') WHERE user='root'; mysql>;FLUSH PRIVILEGES; 允许远程登录 mysql>GRANT ALL PRIVILEGES ON *.* TO '用户名'@'%' IDENTIFIED BY '密码'
WITH GRANT OPTION;
进入mysql命令行,创建以下数据库:
1. #hive
2. create database hive DEFAULT CHARSET utf8 COLLATEutf8_general_ci;
3. #activity monitor
4. create database amon DEFAULT CHARSET utf8 COLLATEutf8_general_ci;
5.关闭防火墙和 SELinux
注意:需要在所有的节点上执行,因为涉及到的端口太多了,临时关闭防火墙是为了安装起来更方便,安装完毕后可以根据需要设置防火墙策略,保证集群安全。
关闭防火墙:
1. service iptables stop (临时关闭)
2. chkconfigiptables off (重启后生效)
关闭 SELINUX(实际安装过程中发现没有关闭也是可以的,不知道会不会有问题,还需进一步进行验证):
1. setenforce 0 (临时生效)
2. 修改 /etc/selinux/config 下的 SELINUX=disabled (重启后永久生效)
|
四、 安装 CM Server 和 Agent
1. 主节点解压安装
clouderamanager 的目录默认位置在/opt下,解压:
1. tar xzvf cloudera-manager*.tar.gz
2. 将解压后的 cm-5.1.3 和 cloudera 目录放到/opt 目录下。
2.为 ClouderaManager 5 建立数据库
首先需要去 MySql 的官网下载 JDBC 驱动,
http://dev.mysql.com/downloads/connector/j/,解压后,找到 mysql-connector-java-
5.1.33-bin.jar,放到/opt/cm-5.1.3/share/cmf/lib/中。
在主节点初始化 CM5 的数据库:
1./opt/cm-5.1.3/share/cmf/schema/scm_prepare_database.shmysql cm hlocalhost -uroot -pxxxx --scm-host localhost scm scm scm
3.Agent 配置
修改/opt/cm-5.1.3/etc/cloudera-scm-agent/config.ini中的 server_host为主节点的主机名。同步 Agent 到其他节点
1.scp -r /opt/cm-5.1.3 [email protected]:/opt/
4.在所有节点创建cloudera-scm 用户
1.useradd --system --home=/opt/cm-5.1.3/run/cloudera-scm-server/--nocreate-home --shell=/bin/false --comment "Cloudera SCM User"clouderascm
5.准备 Parcels,用以安装CDH5
将 CHD5 相关的Parcel 包放到主节点的/opt/cloudera/parcel-repo/目录中:
• CDH-5.1.3-1.cdh5.1.3.p0.12-el6.parcel
• CDH-5.1.3-1.cdh5.1.3.p0.12-el6.parcel.sha1
• manifest.json
最后将 CDH-5.1.3-1.cdh5.1.3.p0.12-el6.parcel.sha1,重命名为 CDH-5.1.3-
1.cdh5.1.3.p0.12-el6.parcel.sha,这点必须注意,否则,系统会重新下载 CDH-5.1.3-
1.cdh5.1.3.p0.12-el6.parcel文件。
6.启动 CMServer Agent
/opt/cm-5.1.3/etc/init.d/cloudera-scm-server start
/opt/cm-5.1.3/etc/init.d/cloudera-scm-agent start
|
五、CDH5 的安装配置
Cloudera Manager Server和Agent都启动以后,就可以进行
CDH5的安装配置了。
这时可以通过浏览器访问主节点的7180端口测试一下了(由于
CM Server的启动需要花点时间,这里可能要等待一会才能访问),默认的用户名和密码均为admin:
可以看到,免费版本的CM5已经没有原来50个节点数量的限制了。
各个Agent节点正常启动后,可以在当前管理的主机列表中看到对应的节点。选择要安装的节点,点继续。
接下来,出现以下包名,说明本地Parcel包配置无误,直接点继续就可以了。
点击,继续,如果配置本地Parcel包无误,那么下图中的已下
载,应该是瞬间就完成了,然后就是耐心等待分配过程就行了,大约10多分钟吧,取决于内网网速。
接下来是服务器检查,可能会遇到以下问题:
Cloudera 建议将/proc/sys/vm/swappiness 设置为 0。当前设置为 60。使用 sysctl命令在运行时更改该设置并编辑 /etc/sysctl.conf 以在重启后保存该设置。您可以继续进行安装,但可能会遇到问题,ClouderaManager 报告您的主机由于交换运行状况不佳。以下主机受到影响:通过echo 0 >/proc/sys/vm/swappiness 即可解决。
还要注意JDK的版本。
接下来是选择安装服务:
服务配置,一般情况下保持默认就可以了(Cloudera Manager 会根据机器的配置自动进行配置,如果需要特殊调整,自行进行设置就可以了):
接下来是数据库的设置,检查通过后就可以进行下一步的操作了:
下面是集群设置的审查页面,保持默认配置的:
终于到安装各个服务的地方了,注意,这里安装 Hive 的时候可能会报错,因为我们使用了 MySql作为 hive的元数据存储,hive默认没有带 mysql的驱动,通过以下命令拷贝一个就行了:
1.cp /opt/cm-5.1.3/share/cmf/lib/mysql-connector-java-5.1.33-bin.jar
/opt/cloudera/parcels/CDH-5.1.3-1.cdh5.1.3.p0.12/lib/hive/lib/
服务的安装过程大约半小时内就可以完成:
安装完成后,就可以进入集群界面看一下集群的当前状况了。
这里可能会出现无法发出查询:对 Service Monitor的请求超时的错误提示,如果各个组件安装没有问题,一般是因为服务器比较卡导致的,过一会刷新一下页面就好了:
测试
在集群的一台机器上执行以下模拟 Pi 的示例程序:
hadoop jar/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar pi 10 100
执行过程需要花费一定的时间,通过YARN的后台可以看到mapreduce的执行状态
遇到的问题
Agent 启动后,安装阶段“当前管理的主机”中显示的节点不全,每次刷新显示的都不一样。
Agent 的错误日志表现如下:
1. [18/Nov/201421:12:56 +0000] 22681 MainThread agent ERROR Heartbeating tomaster:7182 failed.
2. Traceback(most recent call last):
3. File"/home/opt/cm-5.2.0/lib64/cmf/agent/src/cmf/agent.py", line 820,in send_heartbeat
4. response = self.requestor.request('heartbeat',
dict(request=heartbeat))
5. File"/home/opt/cm-5.2.0/lib64/cmf/agent/build/env/lib/python2.6/sitepackages/avro-1.6.3-py2.6.egg/avro/ipc.py",line 139, in request
6. returnself.issue_request(call_request, message_name, request_datum)
7. File"/home/opt/cm-5.2.0/lib64/cmf/agent/build/env/lib/python2.6/sitepackages/avro-1.6.3-py2.6.egg/avro/ipc.py",line 255, in issue_request
8. returnself.read_call_response(message_name, buffer_decoder)
9. File"/home/opt/cm-5.2.0/lib64/cmf/agent/build/env/lib/python2.6/site-
packages/avro-1.6.3-py2.6.egg/avro/ipc.py", line 235, in
read_call_response
10. raiseself.read_error(writers_schema, readers_schema, decoder)
11. File "/home/opt/cm-
5. 2.0/lib64/cmf/agent/build/env/lib/python2.6/site-packages/avro-1.6.3py2.6.egg/avro/ipc.py",line 244, in read_error
12. returnAvroRemoteException(datum_reader.read(decoder))
13. File "/home/opt/cm-
5. 2.0/lib64/cmf/agent/build/env/lib/python2.6/site-packages/avro-1.6.3py2.6.egg/avro/io.py",line 444, in read
14. returnself.read_data(self.writers_schema, self.readers_schema,decoder)
15. File "/home/opt/cm-
5. 2.0/lib64/cmf/agent/build/env/lib/python2.6/site-packages/avro-1.6.3py2.6.egg/avro/io.py",line 448, in read_data
16. if notDatumReader.match_schemas(writers_schema, readers_schema):
17. File "/home/opt/cm-
5. 2.0/lib64/cmf/agent/build/env/lib/python2.6/site-packages/avro-1.6.3py2.6.egg/avro/io.py",line 379, in match_schemas
[1]8. w_type =writers_schema.type
19. AttributeError: 'NoneType' object has no attribute 'type'
这是由于在主节点上启动了 Agent 后,又将 Agent scp 到了其他节点上导致的,首次启动 Agent,它会生成一个 uuid,路径为:
1./opt/cm-5.1.3/lib/cloudera-scm-agent/uuid
,这样的话每台机器上的 Agent 的 uuid 都是一样的了,就会出现紊乱的情况。
解决方案:删除