什么是SparkSQL SQL查询写入JDBC表? [英] what's SparkSQL SQL query to write into JDBC table?

查看:511
本文介绍了什么是SparkSQL SQL查询写入JDBC表?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

对于Spark中的SQL查询



对于阅读,我们可以通过阅读jdbc

  CREATE TEMPORARY TABLE jdbcTable 
USING org.apache.spark.sql.jdbc
OPTIONS dbtable ...;

对于写入,使用SQL将数据写入远程JDBC表的查询是什么?



注意:我希望它是SQL查询。
plz提供纯粹的SQL查询,当使用HiveContext时可以写入jdbc .sql(...)SparkSQL。

解决方案

一个 INSERT OVERWRITE TABLE 将使用JDBC连接写入数据库:

  DROP TABLE IF EXISTS jdbcTemp; 
CREATE TABLE jdbcTemp
USING org.apache.spark.sql.jdbc
OPTIONS(...);

INSERT OVERWRITE TABLE jdbcTemp
SELECT * FROM my_spark_data;
DROP TABLE jdbcTemp;


For SQL query in Spark.

For read, we can read jdbc by

CREATE TEMPORARY TABLE jdbcTable
USING org.apache.spark.sql.jdbc
OPTIONS dbtable ...;

For write, what is the query to write the data to the remote JDBC table using SQL?

NOTE: I want it to be SQL query. plz provide the pure "SQL query" that can write to jdbc when using HiveContext.sql(...) of SparkSQL.

解决方案

An INSERT OVERWRITE TABLE will write to your database using the JDBC connection:

DROP TABLE IF EXISTS jdbcTemp;
CREATE TABLE jdbcTemp
USING org.apache.spark.sql.jdbc
OPTIONS (...);

INSERT OVERWRITE TABLE jdbcTemp
SELECT * FROM my_spark_data;
DROP TABLE jdbcTemp;

这篇关于什么是SparkSQL SQL查询写入JDBC表?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆