初始工作没有接受任何资源;检查您的集群UI以确保工作人员已注册并拥有足够的资源 [英] Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources

查看:118
本文介绍了初始工作没有接受任何资源;检查您的集群UI以确保工作人员已注册并拥有足够的资源的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我试图从 Eclipse 运行spark例子,并得到这个通用错误:初始作业没有接受任何资源;检查你的集群用户界面,以确保工人已注册并拥有足够的资源。

I'm trying to run the spark examples from Eclipse and getting this generic error: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources.

我拥有的版本是 spark- 1.6.2-bin-hadoop2.6。我使用shell中的 ./ sbin / start-master.sh 命令开始启动,设置我的 sparkConf 像这样:

The version I have is spark-1.6.2-bin-hadoop2.6. I started spark using the ./sbin/start-master.sh command from a shell, and set my sparkConf like this:

SparkConf conf = new SparkConf().setAppName("Simple Application");
conf.setMaster("spark://My-Mac-mini.local:7077");

我没有在这里带任何其他代码,因为这个错误会弹出来,正在运行。该机器是Mac OSX,我很确定它有足够的资源来运行最简单的例子。

I'm not bringing any other code here because this error pops up with any of the examples I'm running. The machine is a Mac OSX and I'm pretty sure it has enough resources to run the simplest examples.

我错过了什么?

推荐答案

这个错误表明你的集群没有足够的资源用于当前的工作。因为你还没有启动奴隶,也就是worker。群集将没有任何资源分配给您的工作。

The error indicates that you cluster has insufficient resources for current job.Since you have not started the slaves i.e worker . The cluster won't have any resources to allocate to your job. Starting the slaves will work.

`start-slave.sh <spark://master-ip:7077>`

这篇关于初始工作没有接受任何资源;检查您的集群UI以确保工作人员已注册并拥有足够的资源的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆