蜂巢表是由Spark创建的,但在蜂巢中不可见 [英] Hive Tables are created from spark but are not visible in hive
本文介绍了蜂巢表是由Spark创建的,但在蜂巢中不可见的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
使用以下命令来自spark:
From spark using:
DataFrame.write().mode(SaveMode.Ignore).format("orc").saveAsTable("myTableName")
表正在保存,我可以使用以下命令的hadoop fs -ls /apps/hive/warehouse\test.db'
看到其中test
是我的数据库名称
Table is getting saved I can see using below command's hadoop fs -ls /apps/hive/warehouse\test.db'
where test
is my database name
drwxr-xr-x-psudhir hdfs 0 2016-01-04 05:02 /apps/hive/warehouse/test.db/myTableName
drwxr-xr-x - psudhir hdfs 0 2016-01-04 05:02 /apps/hive/warehouse/test.db/myTableName
但是当我尝试在Hive中检查表时,我无法通过hiveContext中的命令SHOW TABLES
查看它们.
but when I trying to check tables in Hive I cannot view them either with command SHOW TABLES
from hiveContext.
推荐答案
sudo cp /etc/hive/conf.dist/hive-site.xml /etc/spark/conf/
这在Cloudera快速入门Virtual Box中对我有用.
This worked for me in a Cloudera quick start Virtual Box.
这篇关于蜂巢表是由Spark创建的,但在蜂巢中不可见的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!
查看全文