В настоящее время, с более широким использованием моделей машинного обучения в отрасли, поиск наиболее подходящей модели является непростой задачей. Точность, точность или полнота могут не отражать полезность модели в реальном мире. Итак, чтобы найти наиболее подходящую модель, доступна новая актуальная тема под названием «Интерпретация моделей машинного обучения».

Поле «Интерпретация модели машинного обучения» — это новая горячая тема, в которой рассказывается о том, как модель работает и представляет результат. Это связано с фактом достоверности модели. Другими словами, этот раздел отвечает на вопросы «Почему я должен доверять этой модели?» и «Как предсказать выходные данные модели?».

В этой статье мы собираемся объяснить основную концепцию этой области и то, как выйти за рамки старых показателей точности, точности или полноты. Прежде чем мы начнем, я должен упомянуть, что эта статья является ссылкой на статью, написанную Сюхуном Ли и Хаойи Сюн[1].

Алгоритмы интерпретации

Алгоритмы интерпретации используются, чтобы показать, как модель принимает решение. Он выделяет данные, чтобы показать, насколько они эффективны для специального вывода. Например, насколько эффективен снег на изображении волка, чтобы классифицировать изображение как волка, а не как собаку.

Интерпретируемость модели

Интерпретация модели относится к вопросу «Как человеку понять, что модель принимает решения?» и «как предсказать результат модели?». Как видно, для нахождения интерпретируемости модели необходимо использовать алгоритмы интерпретации. Использование методов интерпретации помогает нам лучше понять, как работает модель и как она выводит результат.

Надежный

Достоверность здесь означает степень доверия, которую мы можем применить к интерпретации модели. Или, другими словами, можно сказать, что достоверность показывает, насколько результаты интерпретации модели верны и применимы в целом.

Компромисс

С одной стороны, полностью заслуживающие доверия модели обычно являются простыми моделями, которые не способны решать проблемы реального мира, но, с другой стороны, результаты заслуживающих доверия моделей известны и не имеют непредсказуемых результатов. В связи с этим всегда приходится идти на компромисс между использованием более надежной модели или модели с более высокой производительностью.

Свойства для описания алгоритмов интерпретации

Существуют различные свойства для описания различных представлений алгоритмов интерпретации. Каждый из них используется для выделения аспекта алгоритмов интерпретации. Они классифицируются следующим образом

  • Человек понятный: например, информативность, правдоподобие и удовлетворение
  • TrustWorthiness:надежность,надежность, надежность, достоверность и прозрачность
  • Обоснование:непринужденность, прозрачность
  • Проверка модели:справедливость, возможность передачи, конфиденциальность
  • и т. д.

Категория «Основное обоснование» отвечает на вопрос «Как параметризуется модель для получения выходных данных?». Как вы можете видеть, некоторые свойства находятся более чем в одной категории, что означает, что они могут выделять более одной категории алгоритмов интерпретации.

Различные категории алгоритмов интерпретации

Существуют различные типы алгоритмов интерпретации, которые используются для разных доменов. Некоторые из них могут использоваться более чем в одном домене, а некоторые могут быть применимы только для одного домена.

  • Некоторые методы рассматривают модель как черный ящик. Он просто сравнивает выходные данные с различными входными данными.
  • Некоторые другие находят лежащий в основе процесс каждой модели, т. е. пытаются отследить параметры модели в задаче классификации/прогнозирования, такой как деревья решений.
  • И последняя категория пытается найти решение в закрытой форме для модели, например, формулирование процесса модели (модели SVM или линейной регрессии).

Это были некоторые категории алгоритмов интерпретации, которые мы могли бы упомянуть здесь. Конечно, существует больше различных категорий доступных алгоритмов. Если вы хотите узнать больше об этих методах, вы можете прочитать статью, на которую ссылаются.

Спасибо за прочтение этой статьи и хорошего дня!

Рекомендации

[1] Ли, X., Сюн, Х., Ли, X., Ву, X., Чжан, X., Лю, Дж., Биан, Дж. и Доу, Д., 2022. Интерпретируемый Глубокое обучение: интерпретация, интерпретируемость, достоверность и не только.