ipython不被识别为内部或外部命令(pyspark)
问题描述:
我已经安装了spark版本:spark-2.2.0-bin-hadoop2.7
。ipython不被识别为内部或外部命令(pyspark)
我使用Windows 10
OS
我的Java版本1.8.0_144
我已经把我的环境变量:
SPARK_HOME D:\spark-2.2.0-bin-hadoop2.7
HADOOP_HOME D:\Hadoop (where I put bin\winutils.exe)
PYSPARK_DRIVER_PYTHON ipython
PYSPARK_DRIVER_PYTHON_OPTS notebook
Path是D:\spark-2.2.0-bin-hadoop2.7\bin
当我启动pyspark
从命令行我有这个错误:
ipython is not recognized as an internal or external command
我也试过在jupyter
中设置PYSPARK_DRIVER_PYTHON
,但是它给了我同样的错误(未被识别为内部或外部命令)。
请帮忙吗?
答
在你的机器上搜索ipython应用程序,在我的情况下它是在“c:\ Anaconda3 \ Scripts”中。然后只需将该路径添加到PATH环境变量
您确定在您的机器中安装了'jupyter'和'ipython'? – desertnaut