apache-zeppelin相关内容
我有一个 Kafka 2.1 消息代理,想对 Spark 2.4 中的消息数据进行一些处理.我想使用 Zeppelin 0.8.1 notebooks 进行快速原型设计. 我下载了结构化流媒体所必需的 spark-streaming-kafka-0-10_2.11.jar (http://spark.apache.org/docs/latest/structured-streaming-ka
..
我开始在 Zeppelin 上使用 Flink,并尝试在流媒体中运行最简单的程序:wordcount.当我使用终端在本地模式下运行此代码时,它可以工作. 这是我的做法:https://ci.apache.org/projects/flink/flink-docs-release-1.2/quickstart/setup_quickstart.html 这是代码: object Soc
..
从 Zeppelin-0.7 开始,Zeppelin 开始使用 Helium 框架支持 Helium 插件/包.但是,我无法在 Helium 页面 (localhost:8080/#/helium) 上查看任何插件.根据这个 JIRA,我放置了示例 Helium.json(可在 s3) 在/local-repo/helium-registry-cache 下.但是,之后我在重新启动 Apache
..
在 Scala 和 Python 中: z.put("varname", 变量) 但在 javascript 中我得到(在控制台中) Uncaught ReferenceError: z is not defined 我真正想做的是在 Zeppelin 中使用 z.angular("varname") 从 Scala 代码访问 javascript 变量,但我没有运气:( 在一个单元
..
我已经在虚拟机上部署了HDP:2.6.4 我可以看到spark2没有指向正确的python文件夹.我的问题是 1)如何找到我的python所在的位置? 解决方案:输入 whereis python ,您将获得它所在位置的列表 2)如何更新现有的python库并将新的库添加到该文件夹?例如,等效于CLI上的'pip install numpy'. 目前还不清楚
..
我一直在使用 Apache Zeppelin Notebook 来运行 Scala 代码.现在,需要在同一笔记本上运行独立的 Python 脚本.Scala代码在前面的段落中生成一些CSV文件,这些文件应作为参数传递给Python脚本.从同一Zeppelin笔记本的另一段中运行Python脚本的简便方法是什么? 解决方案 Zeppelin提供了多个解释器,可以将其绑定到相应的笔记本中.单击
..
我已使用以下命令在kubernetes上配置了齐柏林飞艇: apiVersion:apps/v1种类:部署元数据:名称:齐柏林飞艇标签: [...]规格:复制品:1选择器:matchLabels:app.kubernetes.io/名称:齐柏林飞艇app.kubernetes.io/instance:齐柏林飞艇模板:元数据:标签:app.kubernetes.io/名称:齐柏林飞艇app.ku
..
我正在尝试使用Zeppelin(HDP 2.6)在Spark2中使用Stanford NLP库.显然,Databricks为Stanford NLP库构建了包装器.链接: https://github.com/databricks/spark-corenlp 我已从此处下载了用于上述包装的罐子并从此处下载.然后,我在Zeppelin的Spark2解释器设置中将这两组jars添加为依赖项,并重
..
我遇到的第一个问题是,如果不指定version标签就无法提取基本图像,这没什么大不了的……但是在那之后我觉得很奇怪 docker pull apache/zeppelin:0.8.2 之后,我可以获取图像,但是我尝试将其运行为: docker run -p 8080:8080 apache/zeppelin:0.8.2 或 docker run -p 8080:8080 --r
..
我按照此处提到的步骤 https://gist.github.com/codspire/7b0955b9e67fe73f6118dad9539cbaa2 在浏览器中输入"localhost:8080"时没有任何反应 Hadoop版本-3.1.3 Spark版本-为hadoop2.7预先构建的3.0.0-preview Zeppelin版本-0.9.0-preview1
..
我查询齐柏林飞艇上的test_tbl表.表数据结构如下所示: %sqldesc stg.test_tblcol_name |data_type |评论id |字符串|标题|字符串|标签|字符串| 标签列具有数据JSON类型,如下所示: {"name":[{"family":null,"first":"nelson"},{"pos_code":{"house":"tlv","id":"A
..
我已经将avro文件读入spark RDD,需要将其转换为sql数据框.我该怎么做. 这是我到目前为止所做的. import org.apache.avro.generic.GenericRecord导入org.apache.avro.mapred.{AvroInputFormat,AvroWrapper}导入org.apache.hadoop.io.NullWritableval pa
..
我已经看过 zeppelin-plotly ,但这似乎太复杂了.让我担心的其他事情是,它涉及修改齐柏林飞艇的 .war 文件,而我不想因为出错而破坏. 还有另一种将Zeppelin与Zeppelin结合使用的方法吗? 解决方案 使用%angular 解释器功能将其弄清楚.这是使其正常运行的完整步骤 1:如果没有,请进行情节安装 %sh pip绘图安装 如果您可以访问它,也
..
我开始在Zeppelin上使用Flink,并尝试运行流中最简单的程序: wordcount .当我使用终端在本地模式下运行此代码时,它可以工作. 这是我的操作方法:https://ci.apache.org/projects/flink/flink-docs-release-1.2/quickstart/setup_quickstart.html 这是代码: object Sock
..
在Maven项目(具有相同的Scala版本)中使用枚举时,枚举可以正常工作. object t { object DashStyle extends Enumeration { val Solid,ShortDash = Value } def f(style: DashStyle.Value) = println(style) def main(args: Ar
..
我有一个Zeppelin安装程序,并且正在使用Spark解释器.但是,如果遇到语法错误或运行时错误,除“错误"一词外,我找不到其他详细信息. 例如,我有以下代码: 我只在右上角看到“错误"字样. 在我自己的计算机上,scala会打印以下内容: $ scala example.sc ./example.sc:1: error: recursive value a needs
..
当我在Zeppelin中使用R时,它可以工作,但是当我让Zeppelin一天运行时,第二天,我仅对R得到此错误: sparkR后端已死,请尝试增加spark.r.backendConnectionTimeout 我从Spark 配置中看到,已设置默认值到6000秒有人知道如何更改此值,什么值对保持齐柏林飞艇始终保持运行状态有用?我可以使用其他解释器(Python,Jdbc等)而不会出现
..
我在纱客户端模式下使用Zeppelin 0.7.3和Spark 2.3. 我的设置是: 火花: spark.driver.memory 4096m spark.driver.memoryOverhead 3072m spark.executor.memory 4096m spark.executor.memoryOverhea
..
当我放置一个println语句时,它只是输出代码.我想念什么愚蠢的东西? 解决方案 将默认解释器设置为spark(scala)或使用%spark显式设置该段落.
..
最近,我使用mvn clean package -Pspark-1.5 -Dspark.version=1.5.1 -Phadoop-2.4 -Pyarn -Ppyspark -DskipTests从git安装了Zeppelin,由于此错误,我无法运行该教程: java.net.ConnectException 知道为什么会这样吗?我没有修改任何conf文件,因为我有兴趣使用嵌入式Spa
..