ЛИНЕЙНАЯ И НЕЛИНЕЙНАЯ РЕГРЕССИЯ
ВВЕДЕНИЕ:
В этом блоге мы увидим, как подобрать идеальную плоскость для набора данных. Иногда достаточно установить Linear plane . Но иногда недостаточно получить хорошую оценку точности, подобрав линейную плоскость. В этом случае мы выбираем нелинейную плоскость, которая лучше всего соответствует нашему набору данных.
Мы увидим, что лучше всего подходит для линейной или нелинейной плоскости для нашего простого набора данных для лучшего понимания.
Таким образом, приведенный выше кадр данных является нашим набором данных. В котором есть 6 строк и 2 столбца с именами 0 и 1 . В котором 0 является независимой переменной, а 1 является зависимой переменной. Если мы нарисуем точечную диаграмму между зависимой переменной и независимой переменной. Невооруженным глазом мы можем с уверенностью сказать, что не можем подобрать прямую линию для нашего набора данных.
Но для лучшего понимания мы подберем лучшую линейную линию, которая лучше подходит для нашего набора данных, чтобы предсказать зависимую переменную.
УСТАНОВКА ЛИНЕЙНОЙ ПЛОСКОСТИ:
Следовательно, вышеприведенная подгонка является наилучшей линейной подгонкой для нашего набора данных. В котором мы можем ясно видеть, что линейная линия на самом деле не может соответствовать этому набору данных.
So,
Y = 2,06 * (независимая переменная) -2,6599999
Вышеупомянутая функция не является лучшим уравнением для нашей модели, которая соответствует нашим данным. Мы также можем видеть, что предсказанные значения нашей модели для 1 составляют -0,6, а для 11 она предсказала 9,7. В нашем случае дисперсия больше.
Нам нужно уменьшить дисперсию, для этого мы выберем нелинейную подгонку.
ИНТУИЦИОННАЯ ПОЛИНОМИАЛЬНАЯ РЕГРЕССИЯ:
Итак, прежде чем перейти к коду для подбора модели полиномиальной регрессии. Я просто хотел дать интуитивное представление о том, как работает полиномиальная регрессия.
Сначала мы подогнали линейную линию, для чего использовали уравнение прямой в виде ,
Y = M*X + C (в нашем случае для одной независимой переменной)
OR
Y = M1*X1 + M2*X2 + ….. +MnXn + C (для прямой плоскости с n независимыми переменными)
где M1,M2….Mn — наклоны, а X1,X2,……Xn — атрибуты
Но чтобы соответствовать нелинейной кривой . Нам просто нужно поднять степень независимой переменной
как ,
Степень 2: Y = M1*X² + M2*X + C (где X — независимая переменная)
Степень 3: Y = M1*X³ + M3*X² + C
Это мы сейчас погрузимся в код
Сверху мы ясно видим, что xpoly был изменен и возведен в степень. Нравится ,
IV = независимая переменная
Y = M*(матрица единиц) + M1*(IV) + M2*(IV)² + M3*(IV)³ + C
Что касается xpoly, теперь он не такой, как раньше, у него будет больше атрибутов, чем у него.
То, что мы ясно видим,
- В первом столбце 1
- Второй столбец имеет данную независимую переменную
- Третий столбец содержит квадраты значений независимой переменной.
- Четвертый столбец имеет куб независимой переменной
Приведенное выше уравнение будет соответствовать кривой, подобной этой,
Мы увидим, какая кривая подходит для нашего набора данных,
Следовательно, эта кривая лучше всего соответствует нашему набору данных. Есть небольшая дисперсия, которая вообще не купается.
Кривая наилучшего соответствия ,
Y = 0 * (столбец 0) — 1,2775 * (столбец 1) + 0,4767 * (столбец 2) + 1,7899999
Мы также можем видеть, что предсказанные нашей моделью значения для 1 составляют 0,986, а для 11 — 11,28. Дисперсия в этом случае меньше.
Поиск оптимального перехвата и коэффициента четко объясняется в этом блоге:
https://medium.com/@kkarthikeyanvk/guide-to-simply-explained-linear-974da3d3c4f
Вот как работает ПОЛИНОМИАЛЬНАЯ РЕГРЕССИЯ!
ВАШЕ ЗДОРОВЬЕ !!!