Вот и наступил второй день моего приключения по машинному обучению, и, боже, какие персонажи! От линейной алгебры до векторных уравнений, я погружался глубоко в царство чисел, и все это во время написания кода на Python (кто сказал, что у нас не будет калькуляторов вне класса). Одно можно сказать наверняка: математика — это наркотик. Теперь давайте приступим к изучению линейной регрессии — метода, раскрывающего взаимосвязь между двумя переменными.
Подготовка к сцене: линейная регрессия, что за суета? Это линия регресса? Акции GameStop? Ставки Уолл-Стрит? Проще говоря, это мощный метод демонстрации связи между двумя переменными. Но держись! Эти переменные имеют разные роли. У нас есть переменная DEPENDENT — та, которую мы хотим предсказать в нашей модели (она зависит от другой переменной). А еще есть НЕЗАВИСИМАЯ переменная — движущая сила прогнозов нашей модели. Поясним это на необычном примере.
Веселье с фламинго: знаете ли вы, что фламинго не рождаются розовыми? Они на самом деле начинаются как серые. Их диета, состоящая из артемии и сине-зеленых водорослей, содержащих натуральный розовый краситель под названием кантаксантин, превращает их в этих ярких существ. Теперь представьте, что мы обучаем модель угадывать, насколько розовым станет фламинго (да, это звучит глупо, но давайте попробуем). Наша модель линейной регрессии будет отображать потребление соленых креветок/сине-зеленых водорослей по оси ординат и насыщенность (показатель розоватости) по оси абсцисс. Здесь насыщенность служит нашей зависимой переменной — насколько розовой станет эта сказочная птица? И наша независимая переменная, обучающая нашу модель, — это не что иное, как потребление артемии/водорослей. Вуаля! Мы можем смоделировать взаимосвязь между едой и изменением цвета у фламинго!
Уравнение: Теперь момент, которого мы все ждали — очередь. Но как оно оживает? Что ж, друг мой, все дело в уравнении, которое приводит в действие магию машинного обучения. Приготовьтесь к «y = b + wx». Проще говоря: «Вы лучше всего натираете ксилофоны воском». Давайте разберем это:
- y: наша зависимая переменная (желаемый прогноз)
- b: Y-пересечение, также известное как смещение (начальная точка линии).
- w: вес — коэффициент, который минимизирует ошибку в нашей модели (думаем об этом как о наклоне)
- x: наша независимая переменная (функция, определяющая прогнозы)
Далее вниз по кроличьей норе ML: как человеку, который не особо углублялся в математику, кроме алгебры 1, распаковка всего этого была настоящим приключением. Взгляд в прошлое — прекрасная вещь, и теперь мне искренне нравится изучать эти новые термины и уравнения. Но подождите, есть еще что раскрыть! Наше путешествие углубляется в кроличью нору машинного обучения, где мы сталкиваемся со значением хороших данных и надежных функций. В конце концов, если дядя Боб с его дальтонизмом не сможет увидеть истинный оттенок розового, наши данные не будут достоверными. Чтобы делать точные прогнозы, нам нужны высококачественные данные и соответствующие функции. Длина фламинго, например, не играет существенной роли в нашей модели.
Минимизация ошибки: Но зачем мы проходим через все это? Что ж, конечная цель — свести к минимуму ошибки или потери в нашей модели. Используя надежные данные и звуковые методы, мы стремимся делать точные прогнозы. Итак, насколько неправы машины? Прости, Арнольд, возможно, твое возвращение не так уж гарантировано. Аста ла паста, детка! В следующем выпуске мы рассмотрим стратегии, позволяющие уменьшить эту потерю и углубить наше понимание того, что мы уже знаем!