Эта статья основана на исследовании Марко Тулио Рибейро Почему я должен тебе доверять.
Машинное обучение как дисциплина позволяет практикам решать проблемы, просто обобщая предоставленные примеры решений. Самым большим преимуществом этого подхода является то, что он исключает необходимость явного написания правил решения. Благодаря своей популярности машинное обучение нашло применение в подавляющем большинстве областей.
Но как добиться доверия к машинному обучению, ведь оно по большей части остается черным ящиком?
Проблема
Возьмем врача, они не могут доверять диагнозу только потому, что так сказал компьютер. Если пользователи не доверяют модели или прогнозу, они не будут их использовать. Компромисс между точностью и интерпретируемостью неприемлем. Что, если бы вы могли понять, почему какой-либо классификатор делает прогноз. Давайте рассмотрим модель, которая объясняет загадку этого черного ящика.
Решение
LIME (Local Interpretable Model-Agnostic Explanations), который представляет собой алгоритм, который может достоверно объяснить прогнозы любого классификатора или регрессора, аппроксимируя его локально с помощью интерпретируемой модели.
LIME обеспечивает интерпретируемость локальной модели. LIME изменяет одну выборку данных, настраивая значения функций, и наблюдает, как это повлияет на результат. Часто это также связано с тем, что интересует людей при наблюдении за выходными данными модели. Вероятно, наиболее частый вопрос: почему был сделан этот прогноз или какие переменные стали его причиной?
Описание модели
Давайте посмотрим, как LIME объясняет, почему случайный лес думает, что письмо посвящено атеизму.
Электронная почта: как можно верить в Бога (или бога, я думаю), когда наука доказала невозможность его существования? Я думаю, что атеизм - это путь вперед.
Случайный лес подбирает слово БОГ с атеизмом или с буквой g в нижнем регистре как «атеизм». Он также считает, что Бог с прописной G означает «христианство».
Недостатки
Хотя LIME кажется хорошей идеей, они представляют собой некоторые потенциальные ловушки.
LIME можно наносить только на линейные модели. однако возможно, что линейная модель может оказаться недостаточно мощной, чтобы объяснить поведение исходной модели. Во-вторых, тип изменений, которые необходимо выполнить для данных, чтобы получить правильные объяснения, обычно зависит от варианта использования.
Заключительные выводы
LIME помогает нам
- Выбирайте между конкурирующими моделями.
- Выявляйте и улучшайте ненадежные модели.
- Получите представление о модели.
Вывод
С LIME легко понять, как классификаторы машинного обучения делают прогнозы. Это повышает доверие к моделям машинного обучения. При таком доверии эти мощные модели могут быть применены даже в чувствительных областях.