Существует множество различных типов моделей обучения, которые можно использовать в зависимости от типа данных и задачи, которую необходимо решить.
В целом, как видно из рисунка, мы можем разделить модели обучения на следующие категории: Контролируемое, Неконтролируемое и Обучение с подкреплением.
1. Контролируемое обучение: ярлыки или предварительные знания для выходных данных предоставляются для каждого соответствующего входного сигнала. Мы можем разделить обучение с учителем на следующие категории:
– Продолжение Обучение с учителем
· Линейная регрессия: линейная функция представляет взаимосвязь между входными и выходными характеристиками. .
· Другие модели регрессии, такие как полиномиальная регрессия и байесовская линейная регрессия.
– Дискретное контролируемое обучение
· Классификация (также известная как категоризация). ). Модели классификации, такие как логистическая регрессия, машины опорных векторов, наивные байесовские модели и случайный лес.
2. Неконтролируемое обучение: ярлык не предоставляется; поэтому модель обучения ищет неотъемлемую характеристику входных данных без явного наличия каких-либо предварительных знаний. Он включает в себя множество различных алгоритмов, таких как кластеризация K-средних, KNN (k-ближайших соседей), априорный алгоритм, обнаружение аномалий, нейронные сети и анализ основных компонентов. Мы можем разделить обучение без учителя на:
– Продолжение Обучение без учителя
· Уменьшение размеров
– Дискретное обучение без учителя
· кластеризация
3. Обучение с подкреплением — это третья модель машинного обучения, которая не попадает ни в одну из категорий ни одной из предыдущих моделей ни обучения с учителем, ни обучения без учителя. Проще говоря, вознаграждение или наказание дается на основе действий по обучению методом проб и ошибок.
Компромисс между смещением и дисперсией машинного обучения:
В статистике и машинном обучении способность модели обучения уменьшать систематическую ошибку и дисперсию, что может обеспечить наилучшее решение для выбора значения константы регуляризации. Другими словами, компромисс — это противоречие между ошибкой, вызванной смещением, и дисперсией.
· Ошибка смещения: разница между прогнозом и истинностью.
· Ошибка отклонения: изменчивость прогноза при изменении данных.
· Недообучение: модель с низкой дисперсией, но высоким смещением, например, простая неглубокая сеть (мало параметров).
· Переобучение: модель с высокой дисперсией, но низким смещением, например, сложная глубокая модель (большое количество параметров).
· Примечание 1. MSE или норма L2 — это сочетание дисперсии и погрешности.
· Примечание 2. Хорошая модель может свести к минимуму потери, если в ней мало смещения и дисперсии. следовательно, лучший способ для компромисса смещения-дисперсии состоит в том, чтобы свести к минимуму как дисперсию, так и слагаемые смещения.