Я использую spark 1.2.1 на трех узлах, на которых работают три рабочих процесса с подчиненной конфигурацией и выполняются ежедневные задания, используя:
./spark-1.2.1/sbin/start-all.sh
//crontab configuration:
./spark-1.2.1/bin/spark-submit --master spark://11.11.11.11:7077 --driver-class-path home/ubuntu/spark-cassandra-connector-java-assembly-1.2.1-FAT.jar --class "$class" "$jar"
Я хочу, чтобы главные и подчиненные исполнители искры всегда были доступны, и даже в случае сбоя мне нужно перезапустить их, как службу (как это делает cassandra).
Есть ли способ сделать это?
ИЗМЕНИТЬ:
Я просмотрел сценарий start-all.sh, и он содержит только настройки для сценария start-master.sh и сценария start-slaves.sh. Я попытался создать для него файл конфигурации supervisor и получил только следующие ошибки:
11.11.11.11: ssh: connect to host 11.11.11.12 port 22: No route to host
11.11.11.13: org.apache.spark.deploy.worker.Worker running as process 14627. Stop it first.
11.11.11.11: ssh: connect to host 11.11.11.12 port 22: No route to host
11.11.11.12: ssh: connect to host 11.11.11.13 port 22: No route to host
11.11.11.11: org.apache.spark.deploy.worker.Worker running as process 14627. Stop it first.
11.11.11.12: ssh: connect to host 11.11.11.12 port 22: No route to host
11.11.11.13: ssh: connect to host 11.11.11.13 port 22: No route to host
11.11.11.11: org.apache.spark.deploy.worker.Worker running as process 14627. Stop it first.