WedX - журнал о программировании и компьютерных науках

Искра: У исполнителей разные задачи

Я использую Spark 2.4.3 с 12 исполнителями, каждый с 5 ядрами и 40 памятью. Я установил defaultParallelism на 180.

Я использую следующий код для чтения двух отдельных текстовых файлов из hdfs.

val f1 = sc.textFile("file1", sc.defaultParallelism)
val f2 = sc.textFile("file2", sc.defaultParallelism)

val all = f1.union(f2).persist()
all.count()

Когда я смотрю на пользовательский интерфейс Spark, я обнаруживаю, что исполнители получают разное количество задач (некоторые получают только 3). Почему бы Spark не назначить одинаковое количество задач исполнителям, чтобы можно было получить максимальную эффективность? Есть ли способ избежать этого?

Исполнители

13.06.2020

Ответы:


1

Пара вещей, которые нужно иметь в виду...

  • не все задачи занимают одинаковое количество времени. Я считаю, что 2x или 4x часто лучше количество задач.
  • планирование имеет немного накладных расходов.
  • искровой пользовательский интерфейс может затруднить определение коэффициента использования кластера, поскольку один слот задачи-исполнителя разбросан по графу.
  • IMO, вы не хотите оптимизировать коэффициент использования исполнителя. Что вы хотите оптимизировать, так это либо задержку запроса, либо пропускную способность на процессор. Вы можете очень легко распараллелить искровые задания и сделать их крайне неэффективными.
13.06.2020
Новые материалы

Объяснение документов 02: BERT
BERT представил двухступенчатую структуру обучения: предварительное обучение и тонкая настройка. Во время предварительного обучения модель обучается на неразмеченных данных с помощью..

Как проанализировать работу вашего классификатора?
Не всегда просто знать, какие показатели использовать С развитием глубокого обучения все больше и больше людей учатся обучать свой первый классификатор. Но как только вы закончите..

Работа с цепями Маркова, часть 4 (Машинное обучение)
Нелинейные цепи Маркова с агрегатором и их приложения (arXiv) Автор : Бар Лайт Аннотация: Изучаются свойства подкласса случайных процессов, называемых дискретными нелинейными цепями Маркова..

Crazy Laravel Livewire упростил мне создание электронной коммерции (панель администратора и API) [Часть 3]
Как вы сегодня, ребята? В этой части мы создадим CRUD для данных о продукте. Думаю, в этой части я не буду слишком много делиться теорией, но чаще буду делиться своим кодом. Потому что..

Использование машинного обучения и Python для классификации 1000 сезонов новичков MLB Hitter
Чему может научиться машина, глядя на сезоны новичков 1000 игроков MLB? Это то, что исследует это приложение. В этом процессе мы будем использовать неконтролируемое обучение, чтобы..

Учебные заметки: создание моего первого пакета Node.js
Это мои обучающие заметки, когда я научился создавать свой самый первый пакет Node.js, распространяемый через npm. Оглавление Глоссарий I. Новый пакет 1.1 советы по инициализации..

Забудьте о Matplotlib: улучшите визуализацию данных с помощью умопомрачительных функций Seaborn!
Примечание. Эта запись в блоге предполагает базовое знакомство с Python и концепциями анализа данных. Привет, энтузиасты данных! Добро пожаловать в мой блог, где я расскажу о невероятных..


Для любых предложений по сайту: [email protected]