Существует множество различных типов моделей обучения, которые можно использовать в зависимости от типа данных и задачи, которую необходимо решить.

В целом, как видно из рисунка, мы можем разделить модели обучения на следующие категории: Контролируемое, Неконтролируемое и Обучение с подкреплением.

1. Контролируемое обучение: ярлыки или предварительные знания для выходных данных предоставляются для каждого соответствующего входного сигнала. Мы можем разделить обучение с учителем на следующие категории:
 – Продолжение Обучение с учителем
· Линейная регрессия: линейная функция представляет взаимосвязь между входными и выходными характеристиками. .
· Другие модели регрессии, такие как полиномиальная регрессия и байесовская линейная регрессия.
Дискретное контролируемое обучение
· Классификация (также известная как категоризация). ). Модели классификации, такие как логистическая регрессия, машины опорных векторов, наивные байесовские модели и случайный лес.

2. Неконтролируемое обучение: ярлык не предоставляется; поэтому модель обучения ищет неотъемлемую характеристику входных данных без явного наличия каких-либо предварительных знаний. Он включает в себя множество различных алгоритмов, таких как кластеризация K-средних, KNN (k-ближайших соседей), априорный алгоритм, обнаружение аномалий, нейронные сети и анализ основных компонентов. Мы можем разделить обучение без учителя на:
Продолжение Обучение без учителя
· Уменьшение размеров
Дискретное обучение без учителя
· кластеризация

3. Обучение с подкреплением — это третья модель машинного обучения, которая не попадает ни в одну из категорий ни одной из предыдущих моделей ни обучения с учителем, ни обучения без учителя. Проще говоря, вознаграждение или наказание дается на основе действий по обучению методом проб и ошибок.

Компромисс между смещением и дисперсией машинного обучения:

В статистике и машинном обучении способность модели обучения уменьшать систематическую ошибку и дисперсию, что может обеспечить наилучшее решение для выбора значения константы регуляризации. Другими словами, компромисс — это противоречие между ошибкой, вызванной смещением, и дисперсией.

· Ошибка смещения: разница между прогнозом и истинностью.

· Ошибка отклонения: изменчивость прогноза при изменении данных.

· Недообучение: модель с низкой дисперсией, но высоким смещением, например, простая неглубокая сеть (мало параметров).

· Переобучение: модель с высокой дисперсией, но низким смещением, например, сложная глубокая модель (большое количество параметров).

· Примечание 1. MSE или норма L2 — это сочетание дисперсии и погрешности.

· Примечание 2. Хорошая модель может свести к минимуму потери, если в ней мало смещения и дисперсии. следовательно, лучший способ для компромисса смещения-дисперсии состоит в том, чтобы свести к минимуму как дисперсию, так и слагаемые смещения.