Вы создали версию для мастеринга устройства — что дальше? Вы хотите оценить его и подтвердить, насколько хороши (или плохи) его мили, чтобы затем решить, следует ли вводить его в действие или нет. Вот тут-то и появляется кривая AUC-ROC. Вызов, вероятно, звучит многословно, однако достаточно просто объявить, что мы вычисляем Площадь под кривой (AUC) Оператора характеристики приемника (ROC). Смущенный? Я испытываю тебя! Я был на вашем месте. Но не волнуйтесь, мы можем видеть, что означают эти фразы в элементе, и все это может быть проще простого! А пока просто признайте, что кривая AUC-ROC помогает нам получить лучший онлайн-курс по машинному обучению в зависимости от того, насколько хорошо работает наш классификатор освоения устройств. Хотя это работает для самых удобных проблем бинарного класса, ближе к концу мы увидим, как мы можем расширить его, чтобы также оценивать проблемы класса множественного совершенства. Мы рассмотрим такие темы, как чувствительность и специфичность, поскольку они являются ключевыми темами в конце кривой AUC-ROC. Я рекомендую пройтись по матрице путаницы, потому что она изменитнесколько важных фраз, которые мы можем использовать в этой статье. Содержание
Матрица путаницы
Из матрицы путаницы мы можем вывести несколько важных показателей, которые больше не упоминались в предыдущей статье. Давайте общаться о них здесь.
Формула чувствительности
Чувствительность говорит нам, какой процент огромной информации был эффективно помечен. Простым примером может быть решение, какой процент действительно больных людей был эффективно обнаружен с помощью лучшего онлайн-курса по машинному обучению.
Ложноотрицательный показатель
Ложноотрицательный показатель (FNR) говорит нам, какой процент огромного великолепия был неправильно помечен с помощью классификатора. Лучшее TPR и уменьшенное FNR являются правильными, поскольку нам нужно визуализировать классифицировать огромное великолепие.
Специфичность / доля истинно отрицательных результатов
Специфика говорит нам, какой процент плохого великолепия был эффективно помечен. Взяв тот же пример, что и в «Чувствительности», «Специфика» может подразумевать определение доли здоровых людей, которые были успешно распознаны с помощью версии.
Ложноположительный результат
FPR сообщает нам, какой процент плохого великолепия был неправильно помечен средствами классификатора. Лучшее TNR и уменьшенное FPR являются правильными, поскольку нам нужно эффективно классифицировать плохое качество. Из этих показателей чувствительность и специфичность, возможно, являются наиболее важными, и через некоторое время мы увидим, как они используются для построения оценочной метрики. Но прежде давайте разберемся, почему вероятность предсказания выше, чем предсказать великолепие цели без промедления.
Вероятность предсказаний
Версия класса освоения устройства может быть использована для того, чтобы без промедления ожидать реального великолепия информационного фактора или ожидать его шанса принадлежать к исключительным классам. Последнее предлагает нам больше манипуляций с результатом. Мы можем выбрать наш собственный порог для интерпретации результата классификатора. Иногда это более разумно, чем курс машинного обучения, создающий новую версию. Установка исключительных пороговых значений для классификации огромного великолепия для информационных факторов непреднамеренно выдавит чувствительность и специфичность версии. И такие пороги, вероятно, обеспечат более высокий результат, чем другие, в зависимости от того, стремимся ли мы уменьшить диапазон ложноотрицательных или ложноположительных результатов. ROC представляет собой компромисс между истинной положительной оценкой (насколько много сделок эффективно помечено как 1) и ложноположительной оценкой (насколько много сделок неправильно помечено как 1). ROC Plot создает для всех жизнеспособных сниженных сборов и анализирует кривую в сторону пикового левого угла, что показывает более высокую общую производительность классификатора/модели. AUC — это площадь под кривой на графике ROC, которую необходимо измерить и проанализировать. AUC=1, так что все потрясающие примеры идут после вашего плохого примера. AUC = нулевые манеры, все плохие примеры идут после твоего потрясающего примера. AUC=zero.five соответствует классификатору курс по науке о данных и машинному обучению.