Введение в алгоритмы машинного обучения
Машина опорных векторов — это популярная машина обучаемая модель. Сегодня в этой статье я хотел бы дать вам подробное объяснение и как работает эта модель.
модель опорных векторов используется в области обучения с учителем.
Машина опорных векторов и регрессия
Опора вектор модель может использоваться как для задач регрессии, так и для классификации и он разделен на 2 части. Машина опорных векторов (SVM) используется для классификации задач, а регрессия опорных векторов (SVR)в основном используется для >проблемы регрессии, но в этой статье я бы рассказал вам о машине опорных векторов (SVM), возможно, в следующей статье я бы рассказал о регрессии опорных векторов (SVR)
поэтому прежде всего
Как это работает
SVM находит гиперплоскость в n-измерении или линию для классификации между набор данных, поэтому, когда мы добавляем новую точку в набор данных, SVM может сказать, к какому классу принадлежит точка
Итак, допустим, у нас есть набор данных из нескольких точек и мы принадлежим к 2 типам классов. Итак, как SVM отделяет классы друг от друга?
он создает 2 линии или гиперплоскости в n-м измерении с максимальным отступом, одна будет положительной strong>, а другой будет отрицательным в данном представлении, вы можете увидеть, как работает эта модель.
Что такое гиперплоскость?
гиперплоскость — это граница между двумя классами, которая отделяет их друг от друга, и гиперплоскость может зависеть от набора данных, если наши данные двумерные, гиперплоскость будет линией, а если наши данные трехмерные, то гиперплоскость будет двумерной плоскостью. который разделяет точки данных
Что такое опорные векторы?
векторы поддержки — это ближайшая точка, определяющая положение гиперплоскости, точка, касающаяся положительного и >отрицательной гиперплоскости и называются опорными векторами, поскольку они являются основой гиперплоскости
Типы SVM
линейный SVM
линейный SVM, когда наши данные линейны, тогда линейный SVM, и мы можем отделить их от прямой линии
нелинейный SVM
нелинейный SVM, когда наши данные нелинейны, мы используем нелинейный SVM, и он не отделяется прямой линией, а вместо этого можно разделить кривой
пример
линейный SVM
линейный SVM, когда наши данные выглядят примерно так или мы можем разделить их прямой линии
тогда мы можем провести много линий, которые могут разделить наши данные, но найти лучшую линию
нам нужно ввести гиперплоскость, состоящую в основном из всех линий, которые разделяют данные и векторы поддержки, помогающие им строить гиперплоскость
нелинейный SVM
нелинейный SVM в линейном SVM мы использовали линию для разделения наших данных, но в нелинейном SVM когда наши данные выглядят примерно так и не могут быть разделены линией нам нужно ввести кривую для разделения данных
поэтому, чтобы разделить эти точки, мы добавим еще одно измерение к нашим данным, которые мы использовали измерения x и y, теперь мы введем измерение z где z точек будет определяться по формуле
z = x² +y²
теперь наши преобразованные данные будут выглядеть примерно так, и теперь мы можем разделить наш набор данных с помощью гиперплоскости.
это 3D, поэтому вы видите его как линию, но когда мы преобразуем его в 2D, мы получим, что наши данные разделены >обвести
заключение
поэтому я надеюсь, что сегодня вы, ребята, хорошо понимаете машину опорных векторов. В ближайшем будущем я напишу больше статей, в которых буду объяснять больше. strong> модели.