windows下spark环境搭建

在windows下spark的环境搭建步骤如下:

  • 下载 jdk-8u131-windows-x64.exe。若安装路径为E:\Java\,则增加如下的环境变量:
    JAVA_HOME=E:\Java\jdk1.8.0_131
    CLASSPATH=.;%JAVA_HOME%\lib\tools.jar;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\bin;
    PATH中增加%JAVA_HOME%\bin

  • 下载最新版scala安装包scala-2.12.8.msi,若安装路径为E:\scala,则增加环境变量E:\scala\bin;

  • 下载 spark执行体spark-2.4.3-bin-hadoop2.7.tgz,若解压路径为E:\spark-2.4.3-bin-hadoop2.7,则增加环境变量E:\spark-2.4.3-bin-hadoop2.7\bin;

  • 下载 hadoop-2.7.3.tar.gz,若解压路径为E:\hadoop-2.7.3,则增加环境变量HADOOP_HOME=E:\hadoop-2.7.3和%HADOOP_HOME%\bin

  • 下载 hadoop对应版本的winutils.exe,放入E:\hadoop-2.7.3\bin目录中,然后运行E:\hadoop-2.7.3\bin\winutils.exe chmod 777 /tmp/Hive

  • 运行spark-shell检查安装是否成功,如果出现以下内容,恭喜你环境搭建成功:
    windows下spark环境搭建

  • 注意,所有安装路径不应有空格,所有安装路径不应有空格,所有安装路径不应有空格,重要的事情说三遍

  • 解决 spark-shell日志过多的办法
    进入spark目录/conf目录下,将log4j.properties.template在当前目录下复制一份,修改文件名为log4j.properties,然后打开修改下面的语句,将“INFO”改为“WARN”,保存退出,再次计入spark-shell,日志就只会显示warn级别的了
    windows下spark环境搭建