Этот блог предназначен для тех, кто хочет узнать больше об одном из самых простых и вероятностных подходов к машинному обучению, т. е. Наивный байесовский подход.

Наивный Байес подпадает под контроль машинного обучения, которое используется для классификации наборов данных и прогнозирования вещей на основе его предварительных знаний и предположений о независимости.

Они называют его наивным, потому что его предположения (он предполагает, что все функции в наборе данных одинаково важны и независимы) действительно оптимистичны и редко верны в большинстве реальных приложений.

Наивный байесовский алгоритм. Это алгоритм классификации, который принимает решение для неизвестного набора данных. Он основан на Теореме Байеса, которая описывает вероятность события на основе его априорных знаний.

Он широко используется для классификации текста, которая используется в различных приложениях, таких как поиск Google, сортировка электронной почты, определение языка и т. Д. На приведенной ниже диаграмме показано, как NB достигает прогнозов.

Он используется для проверки априорных вероятностей набора данных и, наряду с этим, предоставляет новые вероятности.
Априорные вероятности всегда делятся на 50–50 % для всех наборов данных, и задача алгоритма состоит в том, чтобы метка класса, которой он принадлежит, на основе существующих в настоящее время объектов.

Например: Вес и Рост — это параметры, которые определяют, являются ли игроки борцами сумо или баскетболистами. Изначально он разделен на две части, которые распределены поровну.

Формула прогнозирования NB:

Выше,

  • P(H|E) – апостериорная вероятность класса (H, цель) с учетом предиктора (E, атрибуты).
  • P(H) — априорная вероятность класса.
  • P(E|H) — это вероятность, которая является вероятностью предиктора данного класса.
  • P(E) – априорная вероятность предиктора.

Как использовать алгоритм наивного Байеса?

Случай использования: с указанными ниже погодными условиями и соответствующей целевой переменной «Играть» (предполагающей возможность игры). Теперь нам нужно классифицировать, будут ли игроки играть или нет, в зависимости от погодных условий. Давайте выполним следующие шаги, чтобы выполнить это.
Шаг 1:Сначала мы узнаем вероятность таблицы, которая показывает вероятность да или нет на диаграмме ниже.
Шаг 2:Найдите апостериорную вероятность каждого класса.

Проблема:Выяснить, играет ли игрок в дождливом состоянии?

P(Да|Дождь) = P(Дождь|Да) * P(Да) / P(Дождь)

P(Дождь|Да) = 2/9 = 0,222
P(Да) = 9/14 = 0,64
P(Дождь) = 5/14 = 0,36

Теперь P(Да|Дождь) = 0,222*0,64/0,36 = 0,39, что является более низкой вероятностью, означающей, что шансы на сыгранный матч низкие.

Использование наивного алгоритма Байеса:

  1. Если у вас есть средний или большой набор обучающих данных.
  2. Если экземпляры имеют несколько атрибутов.
  3. Учитывая параметр классификации, атрибуты, описывающие экземпляры, должны быть условно независимыми.
  4. Когда есть ограниченные ресурсы с точки зрения памяти и процессора.
  5. Он менее требователен к вычислительным ресурсам.

Плюсы и минусы алгоритма наивного Байеса?
Плюсы:

  1. Легко реализовать
  2. Меньшая сложность модели
  3. Меньше вычислений процессора.
  4. Работает хорошо, когда набор данных небольшой.

Минусы:

  1. Очень сильное предположение из-за этих результатов плохо, его называют наивным.
  2. Нехватка данных
  3. Реальные проблемы, такие как отсутствие зависимости переменных.
  4. Плохо работает, когда данные слишком велики, и предполагается, что все функции независимы.

Обратитесь к репозиторию GitHub: https://github.com/jiteshmohite/Naive-Bayes-Examples

Мы получили отличный ответ внутри StackOverflow: https://stackoverflow.com/questions/10059594/a-simple-explanation-of-naive-bayes-classification