Haddop+Hive

hadoop单机版
hive使用
首先确保linux环境已有java环境
使用jps命令 看下面四个进程 是hdsf(hadoop)必须要启动的进程
Haddop+Hive
hadoop目录文件预览 注意使用目录
etc 配置
sbin 启动文件
share 例子jar
Haddop+Hive
配置文件在etc/hadoop下面
需要修改的文件如下:内容可以自行百度 很简单 配个端口 主机名 内存等
Haddop+Hive
start-all.sh 正常启动这个就可以了 如jps进程里看不到datanode 或者namenode 需要自行启动
./hadoop-daemon.sh start namenode
./hadoop-daemon.sh start datanode
Haddop+Hive
测试计算pi
Haddop+Hive
访问ip:50070 查看页面
Haddop+Hive
查看ip:8088
Haddop+Hive
上面hdfs(hadoop)已基本构建完成,记得hdfs数据目录要给够权限 hadoop_home也要配置好