apache-spark-1.5相关内容

“插入……"使用 SparkSQL HiveContext

我正在尝试使用我的 HiveContext 运行插入语句,如下所示: hiveContext.sql('insert into my_table (id, score) values (1, 10)') 1.5.2 Spark SQL 文档没有明确说明这是否是支持与否,虽然它确实支持“动态分区插入". 这会导致像 这样的堆栈跟踪 分析异常:查询中不支持的语言功能:插入 my_tabl ..

如何在 Spark 1.5 中转置数据帧(没有可用的枢轴运算符)?

我想使用没有 Pivot 功能的 spark scala 转置下表 我使用的是 Spark 1.5.1,但 1.5.1 不支持 Pivot 功能.请推荐合适的方法来转置下表: 客户日销售额1 星期一 121 周二 101 周四 151 周五 22 日 102 星期三 52 周四 42 周五 3 输出表: 客户周日周一周二周三周四周五1 0 12 10 0 15 22 10 0 0 5 ..
发布时间:2021-11-14 21:36:40 其他开发

在 Spark DataFrame 中将空值转换为空数组

我有一个 Spark 数据框,其中一列是整数数组.该列可以为空,因为它来自左外连接.我想将所有空值转换为空数组,这样以后就不必处理空值了. 我以为我可以这样做: val myCol = df("myCol")df.withColumn("myCol", when(myCol.isNull, Array[Int]()).otherwise(myCol)) 然而,这会导致以下异常: jav ..

在 Spark DataFrame 中将空值转换为空数组

我有一个 Spark 数据框,其中一列是整数数组.该列可以为空,因为它来自左外连接.我想将所有空值转换为空数组,这样以后就不必处理空值了. 我以为我可以这样做: val myCol = df("myCol")df.withColumn("myCol", when(myCol.isNull, Array[Int]()).otherwise(myCol)) 然而,这会导致以下异常: jav ..

Spark 1.5.0 spark.app.id警告

我已经更新了CDH群集,以使用 spark 1.5.0 .当我提交Spark应用程序时,系统显示有关 spark.app.id 的警告 使用默认名称DAGScheduler作为源,因为未设置spark.app.id. 我搜索了有关 spark.app.id 的信息,但没有有关它的文档.我阅读了此链接,我认为它用于RestAPI调用. 我在 spark 1.4 中没有看到此警告.有人可 ..
发布时间:2021-04-08 20:09:11 其他开发

保存/导出数据框转换回JDBC / MySQL的

我想弄清楚如何使用新的 DataFrameWriter 来将数据写回JDBC数据库。我似乎无法找到这个任何文件,但查看源$ C ​​$ C现在看来似乎应该是可能的。 的一个简单的例子是我想要这样的容貌: sqlContext.read.format(“JDBC”)。选项(图( “URL” - > “的jdbc:mysql的://本地主机/富”,“DBTABLE” - > “f ..
发布时间:2016-05-22 15:54:47 其他开发

" INSERT INTO ..​​."与SparkSQL HiveContext

我想用我的HiveContext运行一个INSERT语句,像这样的: hiveContext.sql(“插入my_table的(ID,得分)值(1,10)') 借助 1.5.2星火SQL文档不明确指出这是否是支持或不,尽管它的确支持“动态分区插入。” 这导致堆栈跟踪像 AnalysisException: 不支持的语言功能的查询:插入my_table的(ID,得分)值(1,10) TOK_ ..