Spark Kill正在运行的应用程序 [英] Spark Kill Running Application

查看:269
本文介绍了Spark Kill正在运行的应用程序的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我有一个正在运行的Spark应用程序,该应用程序占据了所有我的其他应用程序都不会分配任何资源的核心.

I have a running Spark application where it occupies all the cores where my other applications won't be allocated any resource.

我做了一些快速研究,有人建议使用YARN kill或/bin/spark-class终止命令.但是,我正在使用CDH版本,并且/bin/spark-class甚至根本不存在,YARN kill应用程序也不起作用.

I did some quick research and people suggested using YARN kill or /bin/spark-class to kill the command. However, I am using CDH version and /bin/spark-class doesn't even exist at all, YARN kill application doesn't work either.

有人可以和我一起吗?

推荐答案

  • 从火花调度程序中复制应用程序ID,例如 application_1428487296152_25597
  • 连接到已启动作业的服务器
  • yarn application -kill application_1428487296152_25597
    • copy past the application Id from the spark scheduler, for instance application_1428487296152_25597
    • connect to the server that have launch the job
    • yarn application -kill application_1428487296152_25597
    • 这篇关于Spark Kill正在运行的应用程序的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆