WedX - журнал о программировании и компьютерных науках

Запускает ли копирование из локального каталога в HDFS задание mapreduce?

Когда мы выдаем команду hdfs put или copyfromlocal, вызывает ли она задание mapreduce? Если да, то сколько картографов запущено? Если нет, то как осуществляется передача?

Я прочитал Анатомию файла в Полное руководство по Hadoop, но хотел бы получить больше информации по этому вопросу.

27.08.2015

Ответы:


1

Копирование локальных файлов в HDFS выполняется с помощью задания mapreduce, когда мы используем команды put и copyFromLocal. На самом деле это делается с помощью потоковой передачи самим двоичным файлом клиента Hadoop с использованием клиентских библиотек и очередей.

При копировании содержимого в HDFS двоичная команда hadoop/hdfs использует класс DistributedFileSystem для взаимодействия с узлом Name для проверки и создания записи в пространстве имен о копируемом файле.

Затем клиент использует класс DFSOutputStream для преобразования данных в пакеты и помещает их во внутреннюю память data queue..

Класс DataStreamer будет потреблять содержимое очереди. Также класс DataStreamer консультируется с Namenode, чтобы назначить список узлов данных (включая репликации), и этот список узлов данных формирует data pipe line.

Класс DataStreamer отправляет пакеты через потоковую передачу только на первый узел в конвейере данных, и по завершении первый узел каскадируется на следующий узел, и тот же процесс продолжается до последнего узла в конвейере.

Я бы посоветовал вам прочитать главу Анатомия записи файла из полного руководства.

27.08.2015
  • Я прочитал Анатомию записи файла в полном руководстве задолго до того, как опубликовать этот вопрос. Одна вещь, которую я хотел бы понять, заключается в том, что количество карт, которые будут использоваться для записи, такое же, как и в парадигме MR, где для каждого разделения запускается карта или другая парадигма. Я не могу получить информацию из окончательного руководства. 27.08.2015
  • задача копирования не будет выполняться заданием MR вообще. Это полностью потоковое задание, никакие мапперы не задействованы. Это все между клиентом hadoop и hdfs, где используется только потоковый режим, без участия мапперов. Пожалуйста, примите ответ, если он полезен 27.08.2015
  • Что происходит в случае copyToLocal? 27.08.2015
  • Новые материалы

    Как проанализировать работу вашего классификатора?
    Не всегда просто знать, какие показатели использовать С развитием глубокого обучения все больше и больше людей учатся обучать свой первый классификатор. Но как только вы закончите..

    Работа с цепями Маркова, часть 4 (Машинное обучение)
    Нелинейные цепи Маркова с агрегатором и их приложения (arXiv) Автор : Бар Лайт Аннотация: Изучаются свойства подкласса случайных процессов, называемых дискретными нелинейными цепями Маркова..

    Crazy Laravel Livewire упростил мне создание электронной коммерции (панель администратора и API) [Часть 3]
    Как вы сегодня, ребята? В этой части мы создадим CRUD для данных о продукте. Думаю, в этой части я не буду слишком много делиться теорией, но чаще буду делиться своим кодом. Потому что..

    Использование машинного обучения и Python для классификации 1000 сезонов новичков MLB Hitter
    Чему может научиться машина, глядя на сезоны новичков 1000 игроков MLB? Это то, что исследует это приложение. В этом процессе мы будем использовать неконтролируемое обучение, чтобы..

    Учебные заметки: создание моего первого пакета Node.js
    Это мои обучающие заметки, когда я научился создавать свой самый первый пакет Node.js, распространяемый через npm. Оглавление Глоссарий I. Новый пакет 1.1 советы по инициализации..

    Забудьте о Matplotlib: улучшите визуализацию данных с помощью умопомрачительных функций Seaborn!
    Примечание. Эта запись в блоге предполагает базовое знакомство с Python и концепциями анализа данных. Привет, энтузиасты данных! Добро пожаловать в мой блог, где я расскажу о невероятных..

    ИИ в аэрокосмической отрасли
    Каждый полет – это шаг вперед к великой мечте. Чтобы это происходило в их собственном темпе, необходима команда астронавтов для погони за космосом и команда технического обслуживания..


    Для любых предложений по сайту: [email protected]