PySpark、Win10 - 系统找不到指定的路径 [英] PySpark, Win10 - The system cannot find the path specified
问题描述
我之前通过 pip 将 PySpark 安装为 Python 包,最近我用干净的 Python 版本卸载了它并下载了独立版本.
I previously had PySpark installed as a Python package I installed through pip, I uninstalled it recently with a clean version of Python and downloaded the standalone version.
在我的用户变量中,我创建了一个名称为:SPARK_HOME
In my User variables I made a path with name: SPARK_HOME
值为:C:\spark-2.3.2-bin-hadoop2.7\bin
with a value of: C:\spark-2.3.2-bin-hadoop2.7\bin
在路径下的系统变量中我做了一个条目:C:\spark-2.3.2-bin-hadoop2.7\bin
In System variables under Path I made an entry: C:\spark-2.3.2-bin-hadoop2.7\bin
我也不能运行 spark-shell.有什么想法吗?
I can not run spark-shell either. Any ideas?
推荐答案
SPARK_HOME 应该没有 bin
文件夹.因此,
SPARK_HOME should be without bin
folder. Hence,
将 SPARK_HOME
设置为 C:\spark-2.3.2-bin-hadoop2.7\
这篇关于PySpark、Win10 - 系统找不到指定的路径的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!