PySpark、Win10 - 系统找不到指定的路径 [英] PySpark, Win10 - The system cannot find the path specified

查看:73
本文介绍了PySpark、Win10 - 系统找不到指定的路径的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我之前通过 pip 将 PySpark 安装为 Python 包,最近我用干净的 Python 版本卸载了它并下载了独立版本.

I previously had PySpark installed as a Python package I installed through pip, I uninstalled it recently with a clean version of Python and downloaded the standalone version.

在我的用户变量中,我创建了一个名称为:SPARK_HOME

In my User variables I made a path with name: SPARK_HOME

值为:C:\spark-2.3.2-bin-hadoop2.7\bin

with a value of: C:\spark-2.3.2-bin-hadoop2.7\bin

在路径下的系统变量中我做了一个条目:C:\spark-2.3.2-bin-hadoop2.7\bin

In System variables under Path I made an entry: C:\spark-2.3.2-bin-hadoop2.7\bin

当我运行 pyspark 时

我也不能运行 spark-shell.有什么想法吗?

I can not run spark-shell either. Any ideas?

推荐答案

SPARK_HOME 应该没有 bin 文件夹.因此,

SPARK_HOME should be without bin folder. Hence,

SPARK_HOME 设置为 C:\spark-2.3.2-bin-hadoop2.7\

这篇关于PySpark、Win10 - 系统找不到指定的路径的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆