Win10 下安装Spark2.3,hadoop2.7 教程

0:安装材料:

(1) jdk-8u171-windows-x64
(2) scala-2.11.8
(3) spark-2.3.1-bin-hadoop2.7.rar
(4) hadoop-2.7.6.rar

1:下载链接

链接:https://pan.baidu.com/s/1IxwLDEz34WKhw6VUSEZ9UQ
提取码:dcey

2:安装过程

(1) 安装jdk环境
(1.1) 双击jdk-8u171-windows-x64,默认安装。
(1.2) 打开cmd或者PowerShell窗口,输入java –version。如果出现下面内容就说明安装成功。如果没有,则配置jdk8的环境变量。
Win10 下安装Spark2.3,hadoop2.7 教程

(2) 安装spark-2.3.1-bin-hadoop2.7
(2.1 )将spark-2.3.1-bin-hadoop2.7.rar解压至C盘。如下图。
Win10 下安装Spark2.3,hadoop2.7 教程
(2.2) 这里spark-2.3.1-bin-hadoop2.7可以解压至任何一个盘任何一个目录,并不要求一定是C盘。但是安装spark-2.3.1-bin-hadoop2.7的目录名称不能有空格,否则会出现错误。

(2.3) 配置spark-2.3.1-bin-hadoop2.7系统环境变量
(2.3.1) 在系统变量Path里面加入C:\spark-2.3.1-bin-hadoop2.7\bin
Win10 下安装Spark2.3,hadoop2.7 教程
Win10 下安装Spark2.3,hadoop2.7 教程

(3) 安装scala-2.11.8
双击scala-2.11.8图标,选择路径默认安装。打开PowerShell窗口输入scala出现如下窗口。
Win10 下安装Spark2.3,hadoop2.7 教程

(4) 安装hadoop-2.7.6.
(4.1) 将hadoop-2.7.6.rar解压至C盘或者其他盘的其他目录。这里演示解压至C盘根目录。
(4.2) 配置hadoop的环境变量。
(4.2.1) 首先系统环境里面新建环境变量HADOOP_HOME,并设置为hadoop解压目录。
Win10 下安装Spark2.3,hadoop2.7 教程
(4.2.2) 在path目录里面加入hadoop的bin目录。如下图
Win10 下安装Spark2.3,hadoop2.7 教程

3:参考网址

https://blog.csdn.net/u011513853/article/details/52865076