如何限制Spark作业失败的重试次数? [英] How to limit the number of retries on Spark job failure?

查看:753
本文介绍了如何限制Spark作业失败的重试次数?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我们正在通过spark-submit运行Spark作业,我可以看到在失败的情况下将重新提交该作业.

在纱线容器出现故障或发生任何异常情况时,如何阻止它进行第二次尝试?

这是由于内存不足和超出GC开销限制"问题引起的.

解决方案

有两个设置可控制重试次数(即,使用YARN进行的ApplicationMaster注册尝试的最大次数被认为是失败的,因此整个Spark应用程序都将被视为失败). :

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆