无法启动SparkR在RStudio [英] Unable to launch SparkR in RStudio

查看:494
本文介绍了无法启动SparkR在RStudio的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

在SparkR的漫长而艰难的安装过程我进入发射SparkR新的问题。

After long and difficult installation process of SparkR i getting into new problems of launching SparkR.

我的设置

R 3.2.0    
RStudio 0.98.1103    
Rtools 3.3    
Spark 1.4.0
Java Version 8
SparkR 1.4.0
Windows 7 SP 1  64 Bit

现在我尝试使用下面的R code:

Now i try to use following code in R:

library(devtools)
library(SparkR)
Sys.setenv(SPARK_MEM="1g")
Sys.setenv(SPARK_HOME="C:/spark-1.4.0")
sc <- sparkR.init(master="local")

我收到以下内容:

I recieve following:

JVM is not ready after 10 seconds

我也尝试添加一些系统变量,如火花路径或Java路径。

I was also trying to add some system variables like spark path or java path.

你有什么建议给我解决的问题。

Do you have any advices for me to fix that problems.

测试本地主机后,我的下一个步骤将是我的运行Hadoop集群上启动测试。

The next step for me after testing local host would be to start tests on my running hadoop cluster.

推荐答案

我认为它是已得到解决的错误。
请尝试以下方法,

I think it was a bug that has now been resolved. Try the following,

> Sys.setenv(SPARK_HOME="C:\\spark-1.4.0")

> .libPaths(c(file.path(Sys.getenv("SPARK_HOME"), "R", "lib"), .libPaths()))

> library("SparkR", lib.loc="C:\\spark-1.4.0\\lib") # The use of \\ is fof windows environment.

> library(SparkR)

> sc=sparkR.init(master="local")

启动Java火花提交命令 C:\\火花1.4.0 /斌/火花submit.cmd sparkr壳

C:\\用户\\阿希什\\应用程序数据\\本地的\\ Temp \\ RtmpWqFsOB \\ backend_portbdc329477c6

希望这有助于。

这篇关于无法启动SparkR在RStudio的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆