実行中のSparkアプリケーションがあり、他のアプリケーションにリソースが割り当てられないすべてのコアを占有しています。
私はいくつかの簡単な調査を行い、人々はYARN killまたは/ bin/spark-classを使用してコマンドを殺すことを提案しました。ただし、私はCDHバージョンを使用しており、/ bin/spark-classはまったく存在しません。YARNキルアプリケーションも機能しません。
これで私と一緒に誰でもできますか?
yarn application -kill application_1428487296152_25597
PUT http:// {rm http address:port}/ws/v1/cluster/apps/{appid}/state
{
"state":"KILLED"
}
YARNからすべてのアプリケーションIDを取得して、それらを1つずつ削除するのは時間がかかる場合があります。 Bash forループを使用して、以下に示すように、この反復タスクを迅速かつ効率的に実行できます。
受け入れられた状態にあるYARN上のすべてのアプリケーションを強制終了します。
for x in $(yarn application -list -appStates ACCEPTED | awk 'NR > 2 { print $1 }'); do yarn application -kill $x; done
YARNで実行状態にあるすべてのアプリケーションを強制終了します。
for x in $(yarn application -list -appStates RUNNING | awk 'NR > 2 { print $1 }'); do yarn application -kill $x; done