· Концепция алгоритма линейной регрессии заключается в создании линии наилучшего соответствия, которая выглядит как на изображении ниже.

· Красная линия – это линия, созданная моделью. Он идет линейно с точками данных таким образом, который лучше всего подходит к точкам данных или близок к ним.

Здесь важно создать линию регрессии. точки на линии регрессии будут нашими предсказанными точками.

Формула для линии регрессии

Y= mx+c

Где Y — прогнозируемые точки, m — наклон линии. Как он наклонен, таков и наклон.

C — точка пересечения с осью.

кредиты фото: serokell.io

На приведенной выше диаграмме показаны условия ошибки.

Черные точки — это точки данных, которые у нас есть. Синяя линия — прогнозируемая линия. Любые точки данных, которые попадают в синюю линию, являются прогнозируемыми точками.

Красная линия, проведенная между черной и синей точками, является ошибкой. Он показывает, насколько прогнозируемые точки отклоняются от фактических точек.

В любом из алгоритмов ML наша конечная цель — уменьшить количество ошибок. Вот в этом случае мы должны уменьшить расстояние между фактическими и предсказанными точками, что является не чем иным, как ошибками.

Следовательно, мы должны создать модель таким образом, чтобы расстояние между ними было меньше или минимально.

И как мы можем это уменьшить, практически мы должны проверить значение члена ошибки и попытаться сделать его близким к нулю.

Именно здесь на сцену выходят такие термины, как RMSE, градиентный спуск, функции стоимости и т. д. Уменьшение ошибки - их цель.

давайте поговорим о RMSE и градиентном спуске в моих следующих постах.