ИИ коренным образом меняет способы работы отраслей и постепенно переходит к принятию автономных решений во многих компаниях. Это быстрое внедрение ИИ также проникло в несколько важных отраслей, а именно в здравоохранение, судебную систему и банковские решения. Примечательно, что использование ИИ в таких критически важных приложениях сопряжено с основной проблемой ответственности. То есть кто несет ответственность, если результат модели неверен, предвзят или несправедлив по отношению к определенным слоям? Ответственность за владение ИИ-решением лежит только на разработчике модели или она распространяется на всю команду, работавшую над решением?

Нить этики с ИИ становится более ясной с определением ИИ

Способность машины имитировать разумное человеческое поведение без явного программирования для этого.

Вы, должно быть, слышали, как многие специалисты по данным говорят, что модель будет делать все возможное, основываясь на данных, на которых она была обучена. Именно в этом и заключается смысл этики. Всегда ли мы, люди, ведем себя этично и генерируем данные для обучения машины? Точно так же, как предсказания модели ML проверяются экспертом-человеком для проверки точности модели ML, есть ли у нас подобный эксперт по этике, чтобы судить об этических выводах моделей?

Кто виноват?

Часто этика связана с предвзятостью — алгоритм был предвзят к определенной расе, цвету кожи или полу. Мы должны отметить, что это не алгоритм, который может быть этичным или неэтичным, хорошим или плохим — это просто последовательность шагов для выполнения операции, и она не может быть предвзятой сама по себе. Ошибочным является выбор дизайна, будь то предпосылка самой проблемы, сбор входных данных, выбор алгоритма или вывод о результате модели. Кроме того, такой выбор и действия являются результатом совместной работы всей команды разработчиков ИИ. Внедрение ИИ означает возможность масштабировать возможность развертывания этических решений на уровне всей организации.

ИИ работает, обучаясь на обучающих данных — что бы вы сделали, если бы данные сами по себе были предвзятыми? Повсеместная и системная предвзятость в исторических данных отразится на прогнозах ИИ или, что еще хуже, может усилиться.

Хотите увидеть эволюцию художественных проектов, созданных искусственным интеллектом? Посетите наш публичный проект, чтобы увидеть таймлапсы, эксперименты с эволюцией и многое другое!

Этика как культура

Этика — это не только термин, связанный с ИИ, наукой о данных или технологиями, но и изменение в масштабах всей организации. Внедрение этики в культуру организации требует определения ролей и ключевых принципов. Составление ответов на такие вопросы, как, например, что значит быть справедливым, как модель может быть прозрачной и объяснимой, кто должен быть подходящей группой для аудита решения ИИ и когда.

Организации должны иметь процесс или контрольный список, который продолжает развиваться и помогает в оценке этического аспекта решения.

Этичны по своей сути

Всякий раз, когда вы разрабатываете решение, подумайте о том, какой была бы ваша реакция в отсутствие каких-либо нормативных правил. Теперь укажите, какие изменения и дополнительные шаги вам необходимо принять в качестве практики, если вы сталкиваетесь и проверяете эксперта по этике.

На все эти проблемы становится относительно легче ответить, если разработчик может думать с точки зрения пользователя. Дело не в том, что мы не знаем о вопросах, которые могут возникнуть при разработке решений ИИ, а в том, чтобы ответить на эти вопросы, а не просто сосредоточиться на модели.

Одному человеку сложно обдумать все возможности предвзятости и предотвратить проникновение предвзятости в модельную систему машинного обучения. Следовательно, рекомендуется создать межфункциональную команду для тщательного изучения и проверки вариантов моделирования на ранней стадии проекта и обеспечения того, чтобы модель была свободна от какой-либо потенциальной предвзятости.

Подготовка контрольного списка вопросов дает представление из первых рук о том, как модель будет восприниматься извне. Думая, можем ли мы объяснить влияние на пользователей, можем ли мы контролировать решение ML, можем ли мы ответить на вопросы пользователей и доверять нашим прогнозам, знаем ли мы, когда наша модель ведет себя не так, как ожидалось, как мы будем устранять ее, отличные места для начала.

Кроме того, в обнаружении и устранении предвзятости вам могут помочь инструменты, такие как Что, если от Google, IBM’s AI Fairness 360 и FairML.

Объяснимость — это инструмент для решения большинства таких этических проблем не только с точки зрения разработчиков, но и при доведении проблем до руководства. Откуда взялись данные и как объяснить вывод модели?

Мы не можем просто надеяться, что после запуска модели не возникнет никаких этических проблем или что они решатся сами по себе, если возникнут. Нам нужно задать все эти неудобные вопросы в самом начале. Тщательное изучение всех решений с самого начала формулировки проблемы до доступности данных, их сбора и преобразования, до воздействия на конечного пользователя — это фундаментальный шаг к внедрению этики в дизайн.

Необходимы практические рекомендации

Существует множество руководств и принципов, объясняющих теоретические аспекты построения этически совместимого решения. Тем не менее, многие решения на основе ИИ попадают в новости по неэтичным причинам. Каковы возможные причины такого разрыва?

  • Принципы часто очень субъективны. Если математическая функция использует два входа (a и b) для выполнения сложения, она всегда будет давать a+b на выходе. Но это не относится к этическим решениям.
  • Это сильно зависит от контекста. Возьмем пример судьи, выносящего приговор в суде общей юрисдикции. Судья может назначить мягкое наказание совершившему преступление впервые при условии, что преступник не имеет криминального прошлого и его следует отпустить за первую ошибку. Алгоритм ИИ не имеет такого морального компаса, чтобы проявлять снисходительность в одном случае и быть более строгим в другом.

Исследовательская работа, показанная ниже, является отличным примером того, как задавать вопросы, чтобы донести сообщение до сознания:

Краткое изложение того, что должен изучать архитектор этических решений ИИ, представлено ниже:

  • Текущее состояние понимания практиками ИИ этических принципов.
  • Необходимость воплощения абстрактных принципов на практике.
  • Мотивация внедрять этические принципы в практику проектирования.
  • Барьеры при попытке воплотить этические принципы на практике.
  • Помощь в воплощении этических принципов на практике.

Кроме того, создание междисциплинарной команды экспертов из области права, нормативно-правового соответствия, инженерии, продукции и науки обеспечит соблюдение всех этических соображений. Разработчики на местах ближе к данным, и их необходимо информировать и стимулировать для поддержки и внедрения этики в дизайн.

Мы все еще далеки от того, чтобы найти по-настоящему объективное решение, подтверждающее этичность решения ИИ. Примечательно, что требуется много умственных способностей, чтобы решить и принять этичное и ответственное использование ИИ!

В этой статье мы обсудили распространенные этические проблемы в жизненном цикле проекта машинного обучения и научились развивать взгляд специалиста по этике ИИ.

Ссылки:

Примечание редактора. Heartbeat — это интернет-издание и сообщество, созданное участниками и посвященное предоставлению лучших образовательных ресурсов для специалистов по науке о данных, машинному обучению и глубокому обучению. Мы стремимся поддерживать и вдохновлять разработчиков и инженеров из всех слоев общества.

Независимая от редакции, Heartbeat спонсируется и публикуется Comet, платформой MLOps, которая позволяет специалистам по данным и командам машинного обучения отслеживать, сравнивать, объяснять и оптимизировать свои эксперименты. Мы платим нашим авторам и не продаем рекламу.

Если вы хотите внести свой вклад, перейдите к нашему призыву к участию. Вы также можете подписаться на получение наших еженедельных информационных бюллетеней (Еженедельник глубокого обучения и Информационный бюллетень Comet), присоединиться к нам в Slack и следить за Comet в Twitter и LinkedIn, чтобы получать ресурсы, события и многое другое, что поможет вам быстрее создавать лучшие модели машинного обучения.