apache-zeppelin相关内容
是否可以注册用 Scala 编写的 UDF(或函数)以在 PySpark 中使用?例如: val mytable = sc.parallelize(1 to 2).toDF("spam")mytable.registerTempTable("mytable")def addOne(m: Integer): Integer = m + 1//垃圾邮件:1, 2 在 Scala 中,现在可以执行以
..
我有一个 spark ec2 集群,我正在从 Zeppelin 笔记本提交 pyspark 程序.我已经加载了 hadoop-aws-2.7.3.jar 和 aws-java-sdk-1.11.179.jar 并将它们放在 spark 实例的/opt/spark/jars 目录中.我得到一个 java.lang.NoClassDefFoundError: com/amazonaws/AmazonS
..
在 Scala 和 Python 中: z.put("varname", 变量) 但在 javascript 中我得到(在控制台中) Uncaught ReferenceError: z is not defined 我真正想做的是在 Zeppelin 中使用 z.angular("varname") 从 Scala 代码访问 javascript 变量,但我没有运气:( 在一个单元
..
我正在努力让 console 接收器与 从 Zeppelin 运行时的 PySpark 结构化流.基本上,我没有看到任何结果打印到屏幕上,也没有看到我找到的任何日志文件. 我的问题: 有没有人有将 PySpark 结构化流与接收器一起使用的工作示例,该接收器产生在 Apache Zeppelin 中可见的输出?理想情况下,它还可以使用套接字源,因为这很容易测试. 我正在使用: U
..
如果我有一个带有 DataFrame 的 Scala 段落,我可以与 python 共享和使用它.(据我所知,pyspark 使用 py4j) 我试过这个: Scala 段落: x.printSchemaz.put("xtable", x ) Python 段落: %pyspark将 numpy 导入为 np将熊猫导入为 pd导入 matplotlib.pyplot 作为 plt
..
可以吗 转换自到pd.DataFrame 在 %pyspark 环境下? 解决方案 尝试: spark_df.toPandas() toPandas() 返回此 DataFrame 的内容作为 Pandas pandas.DataFrame.仅当 Pandas 已安装且可用时才可用. 如果你想要相反的: spark_df = createDataFrame(panda
..
我在 Zeppelin 笔记本上使用 Spark 1.5.1 和 Scala. 我有一个 DataFrame,其中有一列名为 userID 的 Long 类型. 我总共有大约 400 万行和 200,000 个唯一用户 ID. 我还有一个要排除的 50,000 个用户 ID 的列表. 我可以轻松构建要保留的用户 ID 列表. 删除属于要排除的用户的所有行的最佳方法是什么?
..
当我在 DataFrame 上调用 describe 函数时出现问题: val statsDF = myDataFrame.describe() 调用描述函数产生以下输出: statsDF: org.apache.spark.sql.DataFrame = [summary: string, count: string] 我可以通过调用statsDF.show() 正常显示statsDF
..
我制作了一个简单的 UDF 来转换或从 spark 中临时表中的时间字段中提取一些值.我注册了该函数,但是当我使用 sql 调用该函数时,它会抛出 NullPointerException.下面是我的函数和执行过程.我正在使用齐柏林飞艇.奇怪的是,这是昨天工作,但今天早上停止工作. 功能 def convert( time:String ) : String = {val sdf = ne
..
我刚刚从 http://zeppelin-project.org/docs/tutorial/tutorial.html(“流数据教程"部分).我现在遇到的问题是该应用程序似乎只能在本地工作.如果我将 Spark 解释器设置“master"从“local[*]"更改为“spark://master:7077",当我执行相同的 SQL 语句时,应用程序将不再产生任何结果.我做错了什么吗?我已经重新启
..
在 Ubuntu 14 上成功构建 apache zepellin 后,我启动了 zeppelin 并显示已成功启动,但是当我转到 localhost:8080 时,Firefox 显示无法连接错误,就像它没有启动一样,但是当我从终端检查 Zeppelin 状态时,它说运行,而且我只是复制了配置文件模板,所以配置文件是默认的 更新 将端口更改为 8090 ,这是配置文件,但结果没有变化
..
我的 Zeppelin 笔记本中有一个下拉元素 val instrument = z.select("Select Item", Seq(("A", "1"),("B", "2"),("C", "3"))) 我想在我的 sql 中使用这个变量 instrument 的值.例如,我在笔记本中的下一段包含 %sql select * from table_name where ite
..
我使用的是 Zeppelin 0.5.5.我在这里为 python 找到了这个代码/示例,因为我无法使用 %pyspark http://www.makedatauseful.com/python-spark-sql-zeppelin-tutorial/.我感觉他的 %pyspark 示例有效,因为如果您使用原始的 %spark zeppelin 教程,“银行"表已经创建. 此代码在笔记本中
..
我已将 avro 文件读入 spark RDD,需要将其转换为 sql 数据帧.我该怎么做. 这是我目前所做的. import org.apache.avro.generic.GenericRecord导入 org.apache.avro.mapred.{AvroInputFormat, AvroWrapper}导入 org.apache.hadoop.io.NullWritableval
..
我在 Zeppelin 的 Python 段落中创建了一个 spark DataFrame. sqlCtx = SQLContext(sc)spDf = sqlCtx.createDataFrame(df) 和 df 是一个 Pandas 数据框 print(type(df)) 我想要做的是将 spDf 从一个 Py
..
在“Zeppelin 教程"笔记本中,我无法使用 %sql 解释器.它将输出“sql interpreter not found".但是 spark 命令工作正常,以及 %md 和 %sh. 这是日志: ERROR [2015-10-20 10:13:35,045] ({qtp885851948-51} NotebookServer.java[runParagraph]:615) -
..
我是 spark/zeppelin 的新手,我想完成一个简单的练习,我将把 csv 文件从 Pandas 转换为 Spark 数据框,然后注册该表以使用 sql 查询它并使用 Zeppelin 对其进行可视化. 但我似乎在最后一步失败了. 我使用的是 Spark 1.6.1 这是我的代码: %pysparkspark_clean_df.registerTempTable("tabl
..
我在 Apache Spark 中有 registertemptable,使用下面的 Zeppelin: val hvacText = sc.textFile("...")case class Hvac(date: String, time: String, targettemp: Integer, actualtemp: Integer, buildingID: String)val hvac
..
可以吗 转换自到pd.DataFrame 在 %pyspark 环境下? 解决方案 尝试: spark_df.toPandas() toPandas() 返回此 DataFrame 的内容作为 Pandas pandas.DataFrame.仅当 Pandas 已安装且可用时才可用. 如果你想要相反的: spark_df = createDataFrame(panda
..
我想在 zeppelin 笔记本中漂亮地打印相关结果: val Row(coeff: Matrix) = Correlation.corr(data, "features").head 实现此目的的方法之一是将结果转换为 DataFrame,每个值位于单独的列中并调用 z.show(). 但是,查看 Matrix api 我看不出有什么办法可以做到这一点. 是否有另一种直接的方法来
..