Введение в алгоритмы машинного обучения
Регрессия опорных векторов – это популярная машинная модель обучения модель. Сегодня в этой статье я хотел бы дать вам подробное объяснение и как работает эта модель.
регрессия опорных векторов используется в области обучения с учителем.
Машина опорных векторов и регрессия
Опора вектор модель может использоваться как для задач регрессии, так и для классификации и он разделен на 2 части. Машина опорных векторов (SVM) используется для классификации задач, а регрессия опорных векторов (SVR)в основном используется для >проблемы регрессии, но в этой статье я расскажу вам о регрессии опорных векторов (SVR), чтобы узнать больше о машине опорных векторов (SVM), перейдите по ссылке эта ссылка
так что в первую очередь
Что такое гиперплоскость?
гиперплоскость — это граница между двумя классами, которая отделяет их друг от друга, и гиперплоскость может зависеть от набора данных, если наши данные двумерные, гиперплоскость будет линией, а если наши данные трехмерные, то гиперплоскость будет двумерной плоскостью. который разделяет точки данных
Как это работает
SVR находит гиперплоскость в n-мерномили линию для
классифицировать между набором данных, поэтому, когда мы добавляем новую точку в набор данных, SVM может определить, к какому классу принадлежит точка.
Типы СВР
линейный СВР
линейный SVR, когда наши данные линейны, тогда линейный SVR, и мы можем отделить их от прямой линии
нелинейный СВР
нелинейный SVR, когда наши данные нелинейны, мы используем нелинейный SVR, и он не отделяется прямой линией, а вместо этого можно разделить кривой
Пример
Линейный СВР
в linear SVR, когда наши данные выглядят так, мы можем построить линию, чтобы установить связь, поэтому мы построим линию между нашим набором данных, чтобы мы могли получить связь между набором данных. тогда есть много линий, которые мы можем провести между всеми точками в наших данных, но чтобы найти лучшую линию
нам нужно ввести гиперплоскость, состоящую в основном из всех линий, которые разделяют данные и опорные векторы, помогающие им строить гиперплоскость
Нелинейный СВР
нелинейный SVR в линейном SVR мы использовали линию, чтобы найти взаимосвязь между нашими данными, но в нелинейном SVR, когда наши данные выглядят примерно так и не могут быть разделены линией нам нужно ввести кривую, чтобы найти взаимосвязь между данными
заключение
поэтому я надеюсь, что сегодня вы, ребята, хорошо понимаете регрессию опорных векторов. В ближайшем будущем я напишу больше статей, в которых буду объяснять больше. strong> модели.