1. ホーム
  2. apache-spark

[解決済み] 実行中のSparkアプリケーションを終了させるには?

2022-03-03 14:34:56

質問

Sparkアプリケーションを実行していますが、他のアプリケーションにリソースが割り当てられないように、すべてのコアを占有しています。

私はいくつかのクイックリサーチを行い、人々はYARN killまたは/bin/spark-classを使用してコマンドを終了させることを提案しました。しかし、私はCDHバージョンを使用しており、/bin/spark-classはまったく存在せず、YARN killアプリケーションも動作しません。

どなたか教えてください。

解決方法は?

  • アプリケーションIDをsparkスケジューラからコピーペーストします。 application_1428487296152_25597
  • ジョブを起動したサーバーに接続する
  • yarn application -kill application_1428487296152_25597