Объяснимый искусственный интеллект

5 веских причин, почему объяснимый ИИ - экзистенциальная потребность человечества

Что такое объяснимый искусственный интеллект (XAI) и почему мы стремимся к объяснимости и интерпретируемости в системах ИИ?

Возможно, вы впервые слышите об объяснимом искусственном интеллекте, но, безусловно, у вас должно быть свое мнение. Объяснимый ИИ (XAI) относится к методам и методам создания приложений ИИ, которые люди могут понять, «почему» они принимают определенные решения. Другими словами, если мы можем получить объяснения от системы ИИ относительно ее внутренней логики, эта система считается системой XAI. Объяснимость - это новое свойство, которое начало набирать популярность в сообществе ИИ, и мы поговорим о том, почему это произошло в последние годы.

Давайте сначала погрузимся в технические корни проблемы.

Искусственный интеллект как усилитель нашей жизни

Технологические достижения, безусловно, позволяют нам получать доступ к лучшим услугам с большим удобством. Технологии - неотъемлемая часть нашей жизни. Его преимущества, безусловно, перевешивают его вред, и, нравится вам это или нет, его влияние на нашу жизнь будет только увеличиваться. Изобретение компьютеров, Интернета и мобильных устройств сделало нашу жизнь намного удобнее и эффективнее.

После компьютеров и Интернета искусственный интеллект стал новым усилителем нашей жизни. От отчаянных попыток математических факультетов в 50-х и 60-х годах до экспертных систем в 90-х годах мы достигли сегодняшнего дня. Мы можем использовать автомобили для автопилотов, использовать Google Translate для общения с иностранцами, использовать бесчисленные приложения для полировки наших фотографий, находить лучшие рестораны с помощью интеллектуальных алгоритмов рекомендаций. Эффект ИИ в нашей жизни будет только увеличиваться. Искусственный интеллект теперь является незаменимым и бесспорным инструментом в нашей жизни, который улучшает качество нашей жизни.

С другой стороны, системы искусственного интеллекта уже стали настолько сложными, что обычному пользователю стало практически невозможно понять, как они работают. Я уверен, что не более% 1 пользователей Google Translate знают, как это работает, но мы все равно доверяем системе и широко ее используем. Но мы должны знать, как работает система, или, по крайней мере, мы должны иметь возможность получать информацию о ней, когда это необходимо.

Слишком много внимания уделяется точности

Математики и статистики работали над традиционными алгоритмами машинного обучения, такими как линейная регрессия, деревья решений и байесовские сети на протяжении сотен лет. Эти алгоритмы очень интуитивно понятны и разработаны задолго до изобретения компьютеров. Когда вы принимаете решение на основе одного из этих традиционных алгоритмов, легко генерировать объяснения. Однако они достигли точности лишь до определенного уровня. Итак, наши традиционные алгоритмы были хорошо объяснимы, но лишь немного успешными.

Затем все полностью изменилось после изобретения нейронов Мак-Каллоха-Питтса. Это развитие привело к созданию области глубокого обучения. Глубокое обучение - это подраздел искусственного интеллекта, который фокусируется на воспроизведении рабочих механизмов нейронных клеток в нашем мозгу с помощью искусственных нейронных сетей. Благодаря увеличенной вычислительной мощности и оптимизированным фреймворкам глубокого обучения с открытым исходным кодом мы смогли создавать сложные нейронные сети с высокой точностью. Исследователи искусственного интеллекта начали соревноваться, чтобы достичь максимально возможного уровня точности.

Этот конкурс, безусловно, помог нам создать отличные продукты с поддержкой ИИ, но за это пришлось заплатить: низкая объяснимость.

«Мы так долго сосредоточились на повышении точности систем ИИ, что забывали обращать внимание на интерпретацию и объяснение их решений».

Нейронные сети могут быть чрезвычайно сложными и трудными для понимания. Их можно построить с миллиардами параметров. Например, революционная модель НЛП Open AI, GPT-3, имеет более 175 миллиардов параметров машинного обучения, и сложно вывести какие-либо рассуждения на основе такой сложной модели.

На рисунке 2 показана взаимосвязь между точностью и объяснимостью алгоритмов машинного обучения.

Как видите, разработчик ИИ может многое потерять, прибегая к традиционным алгоритмам вместо моделей глубокого обучения. Итак, с каждым днем ​​мы видим все более и более точные модели с все более низкими свойствами объяснимости. Но нам как никогда нужна объяснимость.

Посмотрим почему!

1. Системы искусственного интеллекта все чаще используются в чувствительных областях.

Вспомните старые времена, когда люди использовали мечи и винтовки на войне. Что ж, все меняется быстрее, чем вы думаете. Дроны с интеллектуальным ИИ уже способны уничтожить любого человека без вмешательства человека. Некоторые вооруженные силы уже имеют возможность внедрить эти системы; однако их беспокоят неучтенные результаты. Они не захотят полагаться на системы, о том, как они не знают, как они работают. Что ж, на самом деле, уже существует Проект XAI под эгидой Агентства перспективных исследовательских проектов Министерства обороны США.

Другой пример - беспилотные автомобили. Вы уже можете использовать Tesla на автопилоте. Это большой комфорт для водителя. Но это связано с большой ответственностью. Вы хотели бы знать, что будет делать ваша машина, когда она столкнется с моральной дилеммой, когда ей придется выбрать меньшее из двух зол. Например, должен ли автопилот убивать жертву жизнью собаки, чтобы спасти человека на его пути? Вы также можете увидеть нашу коллективную мораль и вашу личную мораль на Моральной машине Массачусетского технологического института.

Системы искусственного интеллекта с каждым днем ​​все больше влияют на нашу социальную жизнь. Нам нужно знать, как они принимают решения (i) в целом и (ii) в конкретном случае.

2. Экспоненциальный прогресс в области ИИ может создать угрозы существованию.

Мы все смотрели Терминатора и видим, как машины могут стать застенчивыми и, возможно, уничтожить человечество. ИИ мощен, и он может помочь нам стать многопланетным видом, а также полностью уничтожить нас в сценарии, подобном апокалипсису. Фактически, исследование показывает, что более 30% экспертов по ИИ ожидают либо плохих, либо крайне плохих результатов, когда мы достигнем общего искусственного интеллекта. Наше самое мощное оружие для предотвращения катастрофических результатов - это понимание того, как работают системы искусственного интеллекта, чтобы мы могли использовать систему сдержек и противовесов, точно так же, как мы делаем это с правительствами, чтобы ограничить их чрезмерные полномочия.

3. Для разрешения споров, связанных с ИИ, необходимы аргументы и объяснения.

В связи с развитием прав и свобод человека за последние два столетия, действующие законы и постановления уже требуют определенного уровня объяснения в чувствительных областях. Область правовой аргументации и рассуждения имеет дело с границами объяснимости. Тот факт, что приложения с поддержкой ИИ взяли на себя некоторые традиционные занятия, не означает, что их контроллеры не обязаны давать объяснения. Они должны соблюдать те же правила и давать объяснения по поводу своих услуг. Общие правовые принципы требуют объяснений для автоматизированного принятия решений при возникновении юридического спора (например, когда Tesla на автопилоте врезается в пешехода).

Но общие правила и принципы - не единственные причины обязательной объяснимости. У нас также есть несколько современных законов и постановлений, создающих различные формы права на объяснение.

Общий регламент по защите данных (GDPR) в Европейском союзе уже определяет право на объяснение и требует разумного объяснения логики систем искусственного интеллекта, когда гражданин принимает автоматизированное решение.

С другой стороны, в Соединенных Штатах граждане имеют право получить объяснение по поводу отказа в кредитной заявке. Фактически, как показано на рисунке 2, это право вынуждает компании, занимающиеся оценкой кредитоспособности, использовать регрессионную модель (которая более объяснима) при оценке своих клиентов, чтобы они могли предоставить обязательное объяснение.

4. Устранение исторических предубеждений в системах ИИ требует объяснимости.

Люди исторически склонны к дискриминации, и это также отражается в данных, которые мы собираем. Когда разработчик обучает модель искусственного интеллекта, он использует исторические данные со всеми предвзятостями и дискриминационными элементами. Если в наших наблюдениях есть расистские предубеждения, наша модель также будет проецировать эти предубеждения, делая прогнозы. Чтобы доказать это, исследование Бартлетта показывает, что в Соединенных Штатах не менее 6% заявок на получение кредита от меньшинств отклоняются из-за чисто дискриминационной практики. Таким образом, обучение системы подачи заявок на получение кредита с использованием этих предвзятых данных имело бы разрушительные последствия для меньшинств. Как общество, мы должны понимать, как работают наши алгоритмы и как мы можем устранить предубеждения, чтобы гарантировать liberté, égalité et fraternité нашего общества.

5. Автоматизированное принятие бизнес-решений требует надежности и доверия.

Объяснимость имеет смысл и с финансовой точки зрения. Когда вы используете систему с поддержкой ИИ, которая рекомендует определенные действия для продаж и маркетинга организации, вам нужно знать, почему она рекомендует именно это действие. Лица, принимающие решения, должны понимать, почему им нужно предпринять то или иное действие, поскольку они будут нести ответственность за это действие. Это важно как для предприятий реального сектора, так и для предприятий финансового сектора. Неправильный шаг может дорого обойтись компании, особенно на финансовых рынках.

Последние мысли

Как видите, есть несколько веских аргументов в пользу того, почему нам нужен объяснимый ИИ. Эти вопросы относятся к различным дисциплинам и областям, таким как социология, философия, право, этика и бизнес. Подводя итог, нам нужна объяснимость в системах ИИ, потому что:

  • Системы искусственного интеллекта все чаще используются в чувствительных областях;
  • Экспоненциальный прогресс в области ИИ может создать угрозы существованию;
  • Разрешение споров, связанных с ИИ, требует аргументации и объяснения;
  • Устранение исторических предубеждений из систем ИИ требует объяснимости; а также
  • Автоматизированное принятие бизнес-решений требует надежности и доверия.

Затем я углублюсь в то, что наше общество делает в политической, правовой и научной сферах, чтобы повысить объяснимость наших автоматизированных систем принятия решений.

Подпишитесь на список рассылки для получения дополнительной информации

Если вы хотите иметь доступ к кодам других моих обучающих сообщений в Google Colab и ранний доступ к моему последнему контенту, подумайте о подписке на список рассылки: ✉️

Подписаться

Если вас интересует глубокое обучение, также ознакомьтесь с руководством к моему контенту по искусственному интеллекту:



Если вы читаете эту статью, я уверен, что мы разделяем схожие интересы и работаем / будем работать в схожих отраслях. Итак, подключимся через Linkedin! Пожалуйста, не стесняйтесь отправить запрос о контакте! Орхан Г. Ялчин - Linkedin