window下hadoop下载及环境变量配置

一、下载hadoop

https://archive.apache.org/dist/hadoop/common/

window下hadoop下载及环境变量配置

二、解压hadoop,配置环境变量

HADOOP_HOME D:\Yangsq\spark_hadoop\hadoop-2.7.0

 

window下hadoop下载及环境变量配置

path %HADOOP_HOME%\bin

window下hadoop下载及环境变量配置

 

三、验证是否安装成功

打开cmd,输入hadoop version。此处会出现两种现象:

1、失败

Error: JAVA_HOME is incorrectly set.

       Please update F:\hadoop\conf\hadoop-env.cmd

查看自己的java环境变量 java -version 发现没问题。

java version "1.8.0_211"
Java(TM) SE Runtime Environment (build 1.8.0_211-b15)
Java HotSpot(TM) 64-Bit Server VM (build 25.2111-b15, mixed mode)

在网上搜索了下资料发现原来是路径上包含了一个空格,打开D:\Yangsq\spark_hadoop\hadoop-2.7.0\etc\hadoop\hadoop-env.cmd(你的文件在哪就去哪找)。

我的jdk是在D:\Program Files\Java\jdk1.8.0_211。

若是安装在C盘,就用路径替代符:

C:\PROGRA~1\Java\jdk1.8.0_211

PROGRA~1  ===== C:\Program Files 目录的dos文件名模式下的缩写
长于8个字符的文件名和文件夹名,都被简化成前面6个有效字符,后面~1,有重名的就 ~2,~3

如果和我一样装在其他盘,并且有空格那就用引号括起来

"D:\Program Files"\Java\jdk1.8.0_211

window下hadoop下载及环境变量配置

再次试试hadoop version

window下hadoop下载及环境变量配置

虽然有'D:\Program' 不是内部或外部命令啥的,但是成功了。

'D:\Program' 不是内部或外部命令,也不是可运行的程序或批处理文件。
Hadoop 2.7.0
Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r d4c8d4d4d203c934e8074b31289a28724c0842cf
Compiled by jenkins on 2015-04-10T18:40Z
Compiled with protoc 2.5.0
From source with checksum a9e90912c37a35c3195d23951fd18f
This command was run using /D:/Yangsq/spark_hadoop/hadoop-2.7.0/share/hadoop/common/hadoop-common-2.7.0.jar