Каждый алгоритм имеет собственную функцию стоимости, чтобы минимизировать потери при прогнозировании. Аналогичным образом линейная регрессия использует «функцию квадратичной ошибки», чтобы найти потерю с помощью математического представления ниже. Несмотря на то, что функция Squares Error не используется во многих сценариях, несмотря на то, что это основная функция для нахождения функции стоимости.
Всегда помните, что значение функции стоимости в основном зависит от гипотезы, другими словами, от линии регрессии. В математической записи мы представляем ее как h(x)=x(θ1)+θ0 или Y=mX+b ;где h(x) — прогнозируемые значения, X — фактическое значение x, а m,b — случайные значения в диапазоне 0≤m,b≤1.
Трюк для обработки функции стоимости, если m=1,b=0, то функция стоимости абсолютно равна нулю, что означает, что прогнозируемое значение h(x) и фактическое значение Y совпадают. Но если m=0 ,b=0, то функция стоимости максимальна, то есть равна 1.
Если значение функции стоимости равно "1" или "очень близко к 1", мы называем это наиболее подходящей моделью. Несмотря на то, что функция стоимости равна «0», мы говорим, что это наихудшая модель для прогнозов. Но многие говорят, что если значение функции стоимости равно 1, то данные выходят за пределы соответствия, что означает «наша модель запоминает данные обучения, когда мы тренируемся слишком много раз».
Как на самом деле рассчитывается эта функция стоимости:
На изображении выше четко показаны значения ошибки между фактическим значением Y и прогнозируемым значением Y. Эта стоимость в основном основана на значениях a, b или θ1, θ0 — эти значения, безусловно, влияют на гипотезу или линию регрессии или h(X ).
Более того, очень сложно подобрать значения для θ1,θ0 или a,b вручную, так как существуют бесконечные числа в диапазоне от 0≤a,b≤1. Таким образом, чтобы сделать эти значения автоматически выбранными самой моделью, мы используем градиентный спуск или градиентный подъем в качестве стандартной функции стоимости в большинстве сценариев.
Сосредоточьтесь на понятиях «Распаковка функции стоимости», Градиентный спуск и функция «Градиентный подъем».
Делитесь, ставьте лайки и подписывайтесь на меня. Не стесняйтесь оставлять комментарии к моему контенту.
Введение в машинное обучение:
https://medium.com/@VenkataSuryaPrakash/introduction-to-machine-learning-fcffb6c3494c