Логистическая регрессия — перспектива минимизации потерь
Что такое потеря?
Идеальная функция потерь возвращает значение
- +1 за неправильно классифицированные баллы
- 0 за правильно классифицированные баллы
Проблема
Чтобы решить задачи оптимизации в ML, нам нужно использовать дифференцирование/исчисление. Вышеупомянутая функция 01loss не дифференцируема. Чтобы функция была дифференцируемой, она должна быть непрерывной. Функция 01loss не дифференцируема при 0, что означает, что при Zi равном 0 значение функции потерь неоднозначно. Из приведенного выше графика видно, что когда Zi равно 0, функция потерь может принимать два значения: 0 или 1, что делает функцию потерь не непрерывной и, следовательно, становится недифференцируемой.
Решение вышеуказанной проблемы заключается в том, что мы будем аппроксимировать функцию, в нашем случае это функция 01loss. Одним из таких приближений является ЛОГИСТИЧЕСКАЯ ПОТЕРЯ. Существуют тысячи других функций, которые могут имитировать функцию логистических потерь, если мы сможем их легко найти.
С точки зрения/интерпретации минимизации потерь, если мы немного изменим форму функции потерь, мы получим другие алгоритмы классификации машинного обучения.
В таблице ниже показаны несколько функций потерь и связанные с ними алгоритмы.