WedX - журнал о программировании и компьютерных науках

Локальность данных при использовании HDFS другого кластера

Аналогично локальности данных, если HDFS не используется, но характерно для HDFS.

У нас есть 2 кластера Hadoop, и мы отправляем задачу свиньи в кластер A JobTracker, который считывает большой набор данных (100 ГБ) из кластера B и присоединяется к небольшому набору данных (10 строк) из кластера A.

b_data = load 'hdfs://b-cluster/big.txt' as ( customer_id: chararray);
a_data = load 'hdfs://a-cluster/small.txt' as ( customer_id: chararray);
j_data = join a_data by acct_id left, b_data by customer_id;
dump j_data;

Удивительно, но работает + занимает почти столько же времени, сколько мы привыкли при работе только с локальными наборами данных на кластере А (около 10 минут)

Что происходит технически? Трекеры задач работают только на узлах A? Как они считывают набор данных с узлов данных B? Почему это так быстро, если они не могут наслаждаться локальностью данных, не так ли?

Спасибо!

05.08.2013

  • Почему вы не отправляете задание свиньи в кластер B, не помещаете 10 строк в распределенный кеш и не присоединяетесь к нему оттуда? Кстати, мы не можем сказать, работают ли в вашем кластере A средства отслеживания задач или нет. 05.08.2013
  • Что вы подразумеваете под считыванием большого набора данных (100 ГБ) из кластера B?? 05.08.2013

Ответы:


1

На самом деле кластер HDFS и кластер MapReduce не имеют ничего общего с точки зрения синхронизации... они полностью независимы. Просто так получилось, что мы часто размещаем их вместе, чтобы воспользоваться преимуществами локальности данных.

Трекер заданий предпочитает назначать задания локальным способом данных, но если это невозможно, он просто отправляет их в любой трекер задач*. В этот момент чтение из локальной HDFS или удаленной HDFS осуществляется одним и тем же механизмом: по сети. Протоколы одинаковые, так что никаких проблем!

Что касается того, почему вы не замечаете замедления, я не уверен! Возможно у вас быстрая сеть (10GigE?)! Трекеры задач определенно получают данные от удаленных узлов данных по сети. Но делает это параллельно. Я думаю, вы бы заметили в более крупном масштабе.

* Я игнорирую шаг локализации стойки

05.08.2013
Новые материалы

Объяснение документов 02: BERT
BERT представил двухступенчатую структуру обучения: предварительное обучение и тонкая настройка. Во время предварительного обучения модель обучается на неразмеченных данных с помощью..

Как проанализировать работу вашего классификатора?
Не всегда просто знать, какие показатели использовать С развитием глубокого обучения все больше и больше людей учатся обучать свой первый классификатор. Но как только вы закончите..

Работа с цепями Маркова, часть 4 (Машинное обучение)
Нелинейные цепи Маркова с агрегатором и их приложения (arXiv) Автор : Бар Лайт Аннотация: Изучаются свойства подкласса случайных процессов, называемых дискретными нелинейными цепями Маркова..

Crazy Laravel Livewire упростил мне создание электронной коммерции (панель администратора и API) [Часть 3]
Как вы сегодня, ребята? В этой части мы создадим CRUD для данных о продукте. Думаю, в этой части я не буду слишком много делиться теорией, но чаще буду делиться своим кодом. Потому что..

Использование машинного обучения и Python для классификации 1000 сезонов новичков MLB Hitter
Чему может научиться машина, глядя на сезоны новичков 1000 игроков MLB? Это то, что исследует это приложение. В этом процессе мы будем использовать неконтролируемое обучение, чтобы..

Учебные заметки: создание моего первого пакета Node.js
Это мои обучающие заметки, когда я научился создавать свой самый первый пакет Node.js, распространяемый через npm. Оглавление Глоссарий I. Новый пакет 1.1 советы по инициализации..

Забудьте о Matplotlib: улучшите визуализацию данных с помощью умопомрачительных функций Seaborn!
Примечание. Эта запись в блоге предполагает базовое знакомство с Python и концепциями анализа данных. Привет, энтузиасты данных! Добро пожаловать в мой блог, где я расскажу о невероятных..


Для любых предложений по сайту: [email protected]