Как настроить память Executor в кластере Spark. Кроме того, как настроить количество исполнителей на рабочий узел?
Есть ли способ узнать, сколько памяти исполнителя свободно для кэширования или сохранения новых RDD.
Как настроить память Executor в кластере Spark. Кроме того, как настроить количество исполнителей на рабочий узел?
Есть ли способ узнать, сколько памяти исполнителя свободно для кэширования или сохранения новых RDD.
Настройка памяти исполнителя Spark — используйте параметр spark.executor.memory
или ключ --executor-memory
при отправке задания
Настройка количества исполнителей на узел зависит от того, какой планировщик вы используете для Spark. В случае YARN и Mesos у вас нет контроля над этим, вы можете просто установить количество исполнителей. В случае кластера Spark Standalone вы можете настроить параметр SPARK_WORKER_INSTANCES
Вы можете проверить объем свободной памяти в WebUI драйвера Spark. См. здесь Как настроить память Apache Spark Executor, чтобы понять, почему это так не равно общей памяти исполнителя, которую вы установили