Аннотация
Если мы оглянемся всего на несколько лет назад, то большие данные стали горячей темой, которая вызвала дискуссии о ценности, возможностях, стратегиях, подходах и инвестициях для использования их возможностей. Сегодня мы хорошо понимаем, что данные являются ценным капиталом для компаний и что каждая компания генерирует огромное количество данных. Цифровые технологии значительно повысили доступность данных, ожидая, когда их можно будет использовать для более точных отчетов и аналитики, более эффективного принятия решений, персонализированного обслуживания клиентов и снижения затрат.
В последние годы под влиянием больших данных макроэкономический рост претерпел разрушительные изменения. Эпоха Интернета усложняет промышленные инновации, а традиционный режим инноваций сталкивается с риском стратегического применения больших данных, участие клиентов в инновациях стало инновационной тенденцией. Большие данные стали важной движущей силой научно-технических инноваций и важным источником корпоративных инноваций. Стратегия больших данных связана с национальной экономической безопасностью и национальной конкурентоспособностью.
Одна из статистических данных о больших данных, которая привлекла мое внимание, заключается в том, что более 2,5 квинтиллионов байт данных создается во всем мире каждый день. Имея это в виду, я уверен, что большие данные — это ключ к удивительному будущему, полному инноваций. На самом деле опыт показывает, что технологические инновации и большие данные — это разные стороны одной медали.
1.0 ВВЕДЕНИЕ
Начнем с того, что большие данные относятся к большим и сложным наборам данных, которые настолько объемны, что традиционное программное обеспечение для обработки данных просто не может управлять ими и обрабатывать их. С другой стороны, эти огромные данные можно использовать для выявления и решения бизнес-проблем, выявления поведения конкретных клиентов, выявления тенденций и многого другого.
1.1 Что такое большие данные?
Когда мы говорим о больших данных, основное внимание уделяется большим, сложным и разнообразным наборам информации, которые растут с постоянно возрастающей скоростью. Эти большие и сложные наборы данных не могут быть адекватно обработаны и проанализированы с использованием традиционных и типичных методов обработки данных. По сути, термин «большие данные» используется, когда объем данных, генерируемых организацией, достигает критической точки, требующей нового технологического подхода к хранению, обработке, анализу и использованию. Машинное обучение и новые методы статистики и аналитики были разработаны специально для работы с большими данными.
Gartner определяет большие данные как большие объемы, высокоскоростные и/или разнообразные информационные активы, которые требуют новых форм обработки, чтобы обеспечить более эффективное принятие решений, получение информации и оптимизацию процессов. Эти три основных критерия — объем, скорость и разнообразие — использовались для квалификации базы данных как «больших данных», известных как 3V. Тем не менее, учитывая экспоненциальный рост данных, Gartner добавила два новых V в концепцию обработки данных — Ценность и Достоверность.
1.2. 5 V больших данных
· Объем относится к «количеству» или количеству данных, которые производятся. Размер данных определяет ценность и то, можно ли считать их большими данными или нет. Различные источники данных создают разные форматы данных, структурированные и неструктурированные. Некоторые форматы данных включают электронные таблицы, PDF-файлы и множество отчетов, в то время как другие используют данные социальных сетей и аналитику.
· Скорость относится к скорости, с которой данные генерируются, собираются и анализируются. Это скорость, с которой данные принимаются и обрабатываются. Мы все понимаем, как сегодня взаимосвязаны различные технологии и как данные постоянно проходят по множеству каналов, таких как наши компьютерные системы, мобильные телефоны, социальные сети, бизнес-приложения и т. д. Все эти данные можно собирать и отслеживать в режиме реального времени, предоставляя нам прочная основа для более точного и своевременного принятия решений.
· Разнообразие относится к типу и характеру данных, которые доступны, генерируются либо людьми, либо машинами. Традиционная база данных была структурирована и точно вписывается в базу отношений, а большие данные больше связаны с неструктурированными типами данных. Неструктурированные типы данных, такие как электронная почта, голосовая почта, аудио/видео и т. д., требуют передовых инструментов для обработки. Разнообразие — это возможность классифицировать собранные данные по различным категориям.
· Ценность относится к данным, которые могут добавлять «ценность» компании. У вас может быть бесконечное количество данных, но если их нельзя превратить в ценность, они бесполезны. И аналитика больших данных может сыграть здесь огромную роль. То, как вы поступите с собранными данными, — вот что действительно важно. Расширенная аналитика данных обеспечивает полезную информацию из собранных данных, что значительно повышает ценность процесса принятия решений.
· Достоверность – гарантия качества или достоверности собранных данных. Подумайте, насколько точны ваши данные? Когда речь идет о точности больших данных, речь идет не только о качестве самих данных, но и о том, насколько надежными являются источник, тип и обработка данных. Будучи очень сложными, вы не можете воспринимать большие данные как есть, не проверив и не проанализировав их.
1.3 Как большие данные поддерживают инновации в бизнес-технологиях
Признаем мы это или нет, цифровая трансформация заставляет организации переходить на бизнес-модели, основанные на данных. А большие данные содержат множество ответов, позволяющих более успешно продвигать инновации. Эти огромные объемы данных можно использовать для решения бизнес-проблем, которые вы раньше не замечали. Постоянный анализ больших данных позволит вам принимать более обоснованные решения, разрабатывать более качественные продукты и производить их более эффективно.
Использование аналитики больших данных в процессе инноваций в бизнес-технологиях предполагает использование следующих инструментов и процессов.
Python, R или SQL: языки программирования, используемые для взаимодействия и извлечения полезной информации из данных с использованием статистики и управления базами данных.
Автоматизация процессов и рабочих процессов.Автоматизация рабочих процессов — это подход к тому, чтобы поток задач, документов и информации, связанных с работой, выполнялся независимо в соответствии с определенными бизнес-правилами. При внедрении этот тип автоматизации должен представлять собой простой процесс, который выполняется на регулярной основе для повышения повседневной производительности.
· Рабочий процесс – это последовательность действий, необходимых для выполнения задачи. Автоматизация рабочего процесса переносит выполнение этих действий с людей на программное обеспечение.
· Автоматизация процесса: организация сначала определяет задачи, из которых состоит работа. Затем он создает правила и логику, которые определяют, как должны выполняться эти задачи. Наконец, он программирует программное обеспечение с предопределенными бизнес-правилами и логикой. Правила и логика часто представляют собой серию операторов «если-то», которые действуют как инструкции, сообщающие программе, какие действия следует предпринять и как перейти от одной задачи к другой. Программное обеспечение использует эти правила и логику для выполнения ряда задач от начала до конца, так что людям больше не нужно выполнять эту работу.
Визуализация данных. Визуализация данных – это преобразование информации в визуальный контекст, такой как карта или график, чтобы упростить понимание данных человеческим мозгом и извлекать из них ценные сведения. >. Основная цель визуализации данных — упростить выявление закономерностей, тенденций и выбросов в больших наборах данных с помощью таких инструментов, как Power BI, Tableau или Google Data Studio.
Разработка прогнозов и использование данных временных рядов.Разработка прогнозов с использованием данных временных рядов – это процесс анализа данных временных рядов с использованием статистики и моделирования для прогнозирования и принятия стратегических решений. Это не всегда точный прогноз, и вероятность прогнозов может сильно различаться, особенно когда речь идет о часто колеблющихся переменных в данных временных рядов, а также о факторах, находящихся вне вашего контроля. Тем не менее, прогнозирование понимания того, какие результаты более вероятны или менее вероятны, чем другие потенциальные результаты. Зачастую чем полнее данные у вас есть, тем точнее будут прогнозы.
Использование больших наборов данных, данных опросов и создание реляционных баз данных. Система управления реляционными базами данных (RDBMS) — это система управления базами данных (СУБД), основанная на реляционной модели, в которой данные хранятся в виде таблицы, и отношения между данными также хранятся в виде таблиц.
Чтобы эффективно администрировать свои базы данных, вы должны понимать архитектуру СУБД OpenEdge. Архитектура СУБД OpenEdge состоит из следующих компонентов:
· Логическая и физическая база данных
· Общая память
· Брокер
· Сервер
· Клиент
· Фоновые процессы
Использование Azure, AWS или Google Cloud. Облачные вычисления прошли долгий путь с момента их появления. Больше не стоит вопрос о том, стоит ли выбирать облачные вычисления или нет; Теперь вопрос в том, какую облачную платформу выбрать. Благодаря тому, что рынок облачных вычислений наводнен многочисленными поставщиками облачных услуг, AWS, Azure и Google Cloud Platform с гордостью входят в тройку ведущих поставщиков облачных услуг.
· Amazon Web Services: является дочерней компанией amazon.com, которая предоставляет платформу облачных вычислений по запросу для частных лиц, компаний и государственных органов на основе платной подписки. Amazon Web Services — старейший и наиболее опытный игрок на рынке облачных вычислений. Как один из старейших облачных провайдеров, он создал большую пользовательскую базу, а также более высокие факторы доверия и надежности.
· Microsoft Azure: изначально называвшаяся Azure, она была запущена в 2010 году с намерением предоставить компетентную платформу облачных вычислений для бизнеса. Azure был переименован в «Microsoft Azure» в 2014 году, хотя название «Azure» до сих пор широко используется. С момента своего создания Microsoft Azure показала большой прогресс среди своих конкурентов.
· Облачная платформа Google (GCP): предлагаемый Google набор служб облачных вычислений, работающих на той же инфраструктуре, которую Google использует для своих продуктов для конечных пользователей, таких как поисковая система Google, YouTube и многое другое. Первоначальной целью Google Cloud было усиление собственных продуктов Google, таких как поисковая система Google и YouTube. Но теперь они также представили свои корпоративные сервисы, чтобы каждый мог использовать Google Cloud Platform, которая использует ту же инфраструктуру, что и Google Search или YouTube.
Анализ данных с использованием программного обеспечения ГИС, такого как QGIS:Географическая информационная система (ГИС) — это система, которая создает, управляет, анализирует и отображает все типы данных. ГИС связывает данные с картой, интегрируя данные о местоположении (где что-то находится) со всеми типами описательной информации (какие там вещи). ГИС помогает пользователям понять закономерности, отношения и географический контекст.
2.0 Что такое аналитика больших данных
Аналитика больших данных — это часто сложный процесс изучения больших данных для выявления такой информации, как скрытые закономерности, корреляции, рыночные тенденции и предпочтения клиентов, которые могут помочь организациям принимать обоснованные бизнес-решения. В широком смысле технологии и методы анализа данных дают организациям возможность анализировать наборы данных и собирать новую информацию. Запросы бизнес-аналитики (BI) отвечают на основные вопросы о бизнес-операциях и производительности. Аналитика больших данных — это форма расширенной аналитики данных, которая включает в себя сложные приложения с такими элементами, как прогностические модели, статистические алгоритмы и анализ «что, если», основанный на аналитических системах.
2.1 Почему важна аналитика больших данных?
Организации могут использовать системы анализа больших данных и программное обеспечение для принятия решений на основе данных, которые могут улучшить результаты, связанные с бизнесом. Преимущества могут включать в себя более эффективный маркетинг, новые возможности получения дохода, персонализацию клиентов и повышение операционной эффективности. При эффективной стратегии эти преимущества могут обеспечить конкурентные преимущества перед конкурентами.
2.2 Как работает аналитика больших данных
Аналитики данных, ученые, специалисты по прогнозному моделированию, статистики и другие специалисты в области аналитики собирают, обрабатывают, очищают и анализируют растущие объемы структурированных данных о транзакциях, а также другие формы данных, не используемые обычными программами бизнес-аналитики и аналитики.
Вот обзор четырех этапов процесса анализа больших данных:
2.2.1 Сбор данных. Специалисты по работе с данными собирают данные из различных источников. Часто это смесь полуструктурированных и неструктурированных данных. Хотя каждая организация будет использовать разные потоки данных, некоторые общие источники включают в себя:
· данные о кликах в Интернете
· журналы веб-сервера
· облачные приложения
· мобильные приложения
· контент в социальных сетях
· текст из электронных писем клиентов и ответов на опросы;
· записи мобильных телефонов и
· машинные данные, полученные датчиками, подключенными к Интернету вещей (IoT).
2.2.2 Подготовка и обработка: данные подготавливаются и обрабатываются. После того, как данные собраны и сохранены в хранилище данных или озере данных, специалисты по данным должны правильно организовать, настроить и разбить данные для аналитических запросов. Тщательная подготовка и обработка данных обеспечивают более высокую производительность аналитических запросов.
2.2.3 Очистка данных: данные очищаются для повышения их качества: специалисты по данным очищают данные с помощью инструментов сценариев или программного обеспечения для контроля качества данных. Они ищут любые ошибки или несоответствия, такие как дублирование или ошибки форматирования, а также упорядочивают и упорядочивают данные.
2.2.4 Анализ данных. Собранные, обработанные и очищенные данные анализируются с помощью аналитического программного обеспечения. Это включает в себя инструменты для;
· Интеллектуальный анализ данных: просеивает наборы данных в поисках шаблонов и взаимосвязей.
· Описательная аналитика. Описательная аналитика действует как первоначальный катализатор для четкого и точного анализа данных. Это «то, что мы знаем» (текущие пользовательские данные, данные в реальном времени, данные о предыдущих взаимодействиях и большие данные).
· Предписывающая аналитика. предписывающая аналитика использует аналогичные структуры моделирования для прогнозирования результатов, а затем использует комбинацию машинного обучения, бизнес-правил, искусственного интеллекта и алгоритмов для моделирования различных подходов к этим многочисленным результаты. Затем он предлагает наилучшие возможные действия для оптимизации деловой практики. Это то, «что должно произойти».
· Диагностическая аналитика: процесс использования данных для определения причин тенденций и корреляций между переменными.
· Машинное обучение: использует различные алгоритмы для анализа больших наборов данных.
· Глубокое обучение, более продвинутое ответвление машинного обучения.
· Разработка базы данных и управление ею: позволяет конечным пользователям создавать, читать, обновлять и удалять данные в базе данных. Система управления базами данных (СУБД) по существу служит интерфейсом между базой данных и конечными пользователями или прикладными программами, гарантируя, что данные последовательно организованы и остаются легкодоступными.
· Автоматизация процессов и создание сценариев: помогает определить качество продукта на основе таких атрибутов, как функциональность, надежность, удобство использования, эффективность, ремонтопригодность и переносимость.
· Разработка инструментов сбора цифровых данных:процесс сбора и измерения информации по интересующим переменным на установленной систематической основе, который позволяет ответить на поставленные вопросы исследования, проверить гипотезы, и оценить результаты.
· Визуализация данных и рассказывание историй:практика объединения достоверных данных с человеческим общением для создания увлекательного повествования, основанного на фактах. Он использует методы визуализации данных (например, диаграммы и изображения), чтобы помочь передать значение данных таким образом, чтобы это было убедительно и актуально для аудитории.
Ключевые технологии 3.0, обеспечивающие аналитику больших данных для бизнеса
Технология аналитики больших данных представляет собой совокупность нескольких техник и методов обработки. Что делает их эффективными, так это их коллективное использование предприятиями для получения соответствующих результатов для стратегического управления и реализации.
3.1 Вот некоторые ключевые технологии, которые позволяют использовать аналитику больших данных для инноваций в сфере бизнес-технологий.
3.1.1 прогнозная аналитика: применяет математические модели к текущим данным, чтобы информировать (предсказывать) будущее поведение. Это «что может случиться».
3.1.2 Базы данных NoSQL.Эти базы данных используются для надежного и эффективного управления данными на масштабируемом количестве узлов хранения. Базы данных NoSQL хранят данные в виде таблиц реляционных баз данных, документов JSON или пар ключ-значение.
3.1.3 Инструменты обнаружения знаний. Это инструменты, которые позволяют компаниям извлекать большие данные (структурированные и неструктурированные), которые хранятся в нескольких источниках. Этими источниками могут быть разные файловые системы, API, СУБД или аналогичные платформы. С помощью инструментов поиска и обнаружения знаний предприятия могут изолировать и использовать информацию в своих интересах.
3.1.4 Stream Analytics. Иногда данные, которые организация должна обработать, могут храниться на нескольких платформах и в разных форматах. Программное обеспечение потоковой аналитики очень полезно для фильтрации, агрегирования и анализа таких больших данных. Потоковая аналитика также позволяет подключаться к внешним источникам данных и интегрировать их в поток приложений.
3.1.5 In-memory Data Fabric: эта технология помогает распределять большие объемы данных по системным ресурсам, таким как динамическая оперативная память, флэш-память или твердотельные накопители. Что, в свою очередь, обеспечивает доступ с малой задержкой и обработку больших данных на подключенных узлах.
3.1.6 Распределенное хранилище. Способ противодействия сбоям независимых узлов и потере или повреждению источников больших данных. Распределенные хранилища файлов содержат реплицированные данные. Иногда данные также реплицируются для быстрого доступа с малой задержкой в больших компьютерных сетях. Как правило, это нереляционные базы данных.
3.1.7 Виртуализация данных. Она позволяет приложениям извлекать данные без реализации технических ограничений, таких как форматы данных, физическое расположение данных и т. д. Используется Apache Hadoop и другими распределенными хранилища данных для доступа в режиме реального времени или почти в режиме реального времени к данным, хранящимся на различных платформах, виртуализация данных является одной из наиболее часто используемых технологий больших данных.
3.1.8 Интеграция данных. Основная операционная задача для большинства организаций, работающих с большими данными, заключается в обработке терабайтов (или петабайтов) данных таким образом, чтобы они могли быть полезны для конечных результатов клиентов. . Инструменты интеграции данных позволяют компаниям оптимизировать данные в ряде решений для работы с большими данными, таких как Amazon EMR, Apache Hive, Apache Pig, Apache Spark, Hadoop, MapReduce, MongoDB и Couchbase.
3.1.9 Предварительная обработка данных. Эти программные решения используются для преобразования данных в согласованный формат, который можно использовать для дальнейшего анализа. Инструменты подготовки данных ускоряют процесс обмена данными за счет форматирования и очистки неструктурированных наборов данных. Ограничением предварительной обработки данных является то, что все ее задачи не могут быть автоматизированы и требуют контроля со стороны человека, что может быть утомительным и занимать много времени.
3.1.10 Качество данных. Важным параметром обработки больших данных является качество данных. Программное обеспечение для контроля качества данных может проводить очистку и обогащение больших наборов данных, используя параллельную обработку. Это программное обеспечение широко используется для получения последовательных и надежных результатов обработки больших данных.
4.0 Как предприятия используют аналитику больших данных
Вот несколько примеров того, как компании используют аналитику больших данных для повышения своей эффективности.
· Привлечение и удержание клиентов.Данные о потребителях могут помочь маркетинговым усилиям компаний, которые могут действовать в соответствии с тенденциями для повышения удовлетворенности клиентов. Например, механизмы персонализации для Amazon, Netflix и Spotify могут улучшить качество обслуживания клиентов и повысить их лояльность.
· Целевая реклама.Персонализация данных из таких источников, как прошлые покупки, шаблоны взаимодействия и истории просмотров страниц продуктов, может помочь в создании привлекательных целевых рекламных кампаний для пользователей на индивидуальном уровне и в более широком масштабе.
· Разработка продукта. Аналитика больших данных может предоставить информацию о жизнеспособности продукта, решениях по разработке, измерении прогресса и направить улучшения в направлении, которое подходит бизнес-клиентам.
· Оптимизация цен. Розничные продавцы могут выбирать модели ценообразования, которые используют и моделируют данные из различных источников данных для максимизации доходов.
· Аналитика цепочек поставок и каналов. Прогнозные аналитические модели могут помочь с упреждающим пополнением запасов, сетями поставщиков B2B, управлением запасами, оптимизацией маршрутов и уведомлением о возможных задержках поставок.
· Управление рисками.Аналитика больших данных может выявлять новые риски на основе шаблонов данных для эффективных стратегий управления рисками.
· Улучшение процесса принятия решений.Полезная информация, которую бизнес-пользователи извлекают из соответствующих данных, может помочь организациям принимать более быстрые и эффективные решения.
4.1 Преимущества использования аналитики больших данных в бизнес-инновациях
К преимуществам использования аналитики больших данных относятся:
· Быстрый анализ больших объемов данных из разных источников, в различных форматах и типах.
· Быстрое принятие более обоснованных решений для эффективной разработки стратегии, которая может принести пользу и улучшить цепочку поставок, операции и другие области принятия стратегических решений.
· Экономия затрат, которая может быть результатом повышения эффективности и оптимизации бизнес-процессов.
· Лучшее понимание потребностей, поведения и настроений клиентов, что может привести к лучшему пониманию маркетинга, а также предоставить информацию для разработки продукта.
· Усовершенствованные, более информированные стратегии управления рисками, основанные на больших выборках данных.
4.2 Проблемы анализа больших данных в бизнес-инновациях
Несмотря на широкие преимущества использования аналитики больших данных для оптимизации эффективности бизнеса, ее использование также сопряжено с проблемами, в том числе:
· Доступность данных. Чем больше объем данных, тем сложнее их хранение и обработка. Большие данные должны храниться и поддерживаться должным образом, чтобы их могли использовать менее опытные специалисты по данным и аналитики.
· Поддержание качества данных.При больших объемах данных, поступающих из различных источников и в различных форматах, управление качеством больших данных требует значительного времени, усилий и ресурсов для их надлежащего обслуживания.
· Безопасность данных. Сложность систем больших данных создает уникальные проблемы безопасности. Надлежащее решение проблем безопасности в такой сложной экосистеме больших данных может оказаться сложной задачей.
· Выбор правильных инструментов.Выбор из огромного множества инструментов и платформ для анализа больших данных, доступных на рынке, может привести к путанице, поэтому организации должны знать, как выбрать лучший инструмент, который соответствует потребностям пользователей и инфраструктура.
· Из-за потенциальной нехватки навыков внутренней аналитики и высокой стоимости найма опытных специалистов по данным и инженеров некоторым организациям трудно заполнить пробелы.
5.0 ЗАКЛЮЧЕНИЕ
Инновации в бизнес-технологиях, основанные на данных, предполагают, что процессы инноваций в бизнес-технологиях могут и должны быть автоматизированы. С каждым днем становится доступным все больше и больше данных, растут технологические и аналитические возможности, а затраты на обработку данных снижаются. Использование технологических инноваций и подключение к огромным объемам различных данных позволит получить более целостное представление, что приведет к принятию обоснованных решений на основе данных и более гибким инновационным процессам.
Большие данные уже используются для повышения эффективности работы бизнес-технологий, а способность принимать обоснованные решения на основе самой последней актуальной информации стала общепринятой нормой. Нет сомнений в том, что большие данные будут продолжать играть важную роль во многих различных отраслях по всему миру. Это определенно может творить чудеса для бизнес-организации. Чтобы получить больше преимуществ, важно обучить своих сотрудников управлению большими данными. При правильном управлении большими данными ваш бизнес станет более продуктивным и эффективным.
ССЫЛКИ
Кальдераро, А. Рецензия на книгу: Большие данные: революция, которая изменит то, как мы живем, работаем и думаем [J]. Медиакультура и общество, 2015, 37(7):1113–1115.
Assuncao MD , Calheiros R N , Bianchi S , et al. Вычисления больших данных и облака: тенденции и будущие направления[J]. Журнал параллельных и распределенных вычислений, 2015 г., стр. 79–80:3–15.
Хашем И. А. Т., Якуб И., Ануар Н. Б. и др. Рост «больших данных» в облачных вычислениях: обзор и открытые исследования [J]. Информационные системы, 2015, 47(янв.):98–115.
Хаук Дж., Прюгль, Рейнхард. Инновационная деятельность во время преемственности внутрисемейного лидерства в семейных фирмах: эмпирическое исследование с точки зрения социально-эмоционального богатства [J]. Журнал стратегии семейного бизнеса, 2015, 6(2):104–118.
М. П. Бах, Zˇ. Крстич, С. Селян и Л. Туруля, «Разбор текста для анализа больших данных в финансовом секторе: обзор литературы», Sustainability, vol. 11, нет. 5, стр. 1277, 2019.
С. Правин, У. Чандра и А. А. Вани, «Обзор литературы по развитию базы данных», International Journal
компьютерных приложений, vol. 162, нет. 9, стр. 35–41, 2017.
Д. Д. де Маседо, А. фон Вангенхайм и М. А. Дантас, «Подход к хранению данных для крупномасштабных
распределенные медицинские системы», 2015 Ninth Int. конф. на сложных, интеллектуальных и программно-интенсивных
Systems, Санта-Катарина, Бразилия, стр. 486–490, 2015 г.
Т. Ли, Ю. Лю, Ю. Тиан, С. Шен и В. Мао, «Решение для хранения массивных данных IoT на основе NoSQL».
в 2012 IEEE Int. конф. по экологичным вычислениям и коммуникациям, Безансон, Франция, стр. 50–57, 2012 г.
С.-Ю. Чой и К. Чанг, «Процесс знаний о больших данных о здоровье с использованием ассоциативного анализа на основе MapReduce».
майнинг», Personal and Ubiquitous Computing, vol. 24, нет. 5, стр. 571–581, 2020.
Х. Юнг и К. Чанг, «Рекомендации по диетическому питанию, основанные на знаниях, для лечения ожирения».
Информационные технологии и менеджмент, vol. 17, нет. 1, стр. 29–42, 2016.
К. А. Эль-Дахшан, А. А. Аль-Хабши и Г. Э. Абуталеб, «Данные во время COVID-19: общее
методология выбора и защиты СУБД NoSQL для медицинских данных», PeerJ Computer Science, vol. 6,
no. 3, pp. e297, 2020.