如何通过启用HiveSupport在Windows10上本地运行spark-sql程序时修复异常? [英] How to fix Exception while running locally spark-sql program on windows10 by enabling HiveSupport?

查看:368
本文介绍了如何通过启用HiveSupport在Windows10上本地运行spark-sql程序时修复异常?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我正在研究SPARK-SQL 2.3.1和 我正在尝试在创建会话时启用hiveSupport,如下所示:

I am working on SPARK-SQL 2.3.1 and I am trying to enable the hiveSupport for while creating a session as below

.enableHiveSupport()
.config("spark.sql.warehouse.dir", "c://tmp//hive")

我在命令下跑了

C:\Software\hadoop\hadoop-2.7.1\bin>winutils.exe chmod 777  C:\tmp\hive

运行我的程序时得到:

原因:java.lang.RuntimeException:java.lang.RuntimeException:HDFS上的临时根目录:/tmp/hive应该可写.当前权限为:rw-rw-rw- 在org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:522)

Caused by: java.lang.RuntimeException: java.lang.RuntimeException: The root scratch dir: /tmp/hive on HDFS should be writable. Current permissions are: rw-rw-rw- at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:522)

如何解决此问题并运行本地Windows计算机?

How to fix this issue and run my local windows machine?

推荐答案

尝试使用此命令:

hadoop fs -chmod -R 777 /tmp/hive/

这是Spark异常,不是Windows.您不仅需要为本地目录设置HDFS文件夹的正确权限.

This is Spark Exception, not Windows. You need to set correct permissions for the HDFS folder, not only for your local directory.

这篇关于如何通过启用HiveSupport在Windows10上本地运行spark-sql程序时修复异常?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆