· Концепция алгоритма линейной регрессии заключается в создании линии наилучшего соответствия, которая выглядит как на изображении ниже.
· Красная линия – это линия, созданная моделью. Он идет линейно с точками данных таким образом, который лучше всего подходит к точкам данных или близок к ним.
Здесь важно создать линию регрессии. точки на линии регрессии будут нашими предсказанными точками.
Формула для линии регрессии
Y= mx+c
Где Y — прогнозируемые точки, m — наклон линии. Как он наклонен, таков и наклон.
C — точка пересечения с осью.
кредиты фото: serokell.io
На приведенной выше диаграмме показаны условия ошибки.
Черные точки — это точки данных, которые у нас есть. Синяя линия — прогнозируемая линия. Любые точки данных, которые попадают в синюю линию, являются прогнозируемыми точками.
Красная линия, проведенная между черной и синей точками, является ошибкой. Он показывает, насколько прогнозируемые точки отклоняются от фактических точек.
В любом из алгоритмов ML наша конечная цель — уменьшить количество ошибок. Вот в этом случае мы должны уменьшить расстояние между фактическими и предсказанными точками, что является не чем иным, как ошибками.
Следовательно, мы должны создать модель таким образом, чтобы расстояние между ними было меньше или минимально.
И как мы можем это уменьшить, практически мы должны проверить значение члена ошибки и попытаться сделать его близким к нулю.
Именно здесь на сцену выходят такие термины, как RMSE, градиентный спуск, функции стоимости и т. д. Уменьшение ошибки - их цель.
давайте поговорим о RMSE и градиентном спуске в моих следующих постах.