У меня есть простое приложение spark, которое читает master из файла конфигурации:
new SparkConf()
.setMaster(config.getString(SPARK_MASTER))
.setAppName(config.getString(SPARK_APPNAME))
Что произойдет, если мое приложение будет запущено следующим образом:
spark-submit --class <main class> --master yarn <my jar>
Мой мастер будет перезаписан?
Я предпочитаю, чтобы мастер предоставлялся стандартным образом, поэтому мне не нужно поддерживать его в моей конфигурации, но тогда возникает вопрос, как я могу запустить это задание непосредственно из IDEA? это не мой аргумент приложения, а аргумент отправки искры.
Просто для пояснения, мой желаемый конечный продукт должен:
при запуске в кластере с использованием --master yarn, будет использовать эту конфигурацию
при запуске из IDEA будет работать с local[*]