О чем следует помнить при внедрении ИИ в продукты

Когда вы думаете о термине «ИИ», что приходит на ум? Некоторые люди могут думать о голосовом ИИ, таком как Alexa или Siri, в то время как другие могут думать о научно-фантастических настройках властных гуманоидных роботов, пытающихся захватить человечество. Я склонен думать о последнем, особенно в фильме Я, робот, где гуманоидные роботы, которые изначально были созданы, чтобы помогать людям, в конечном итоге восстают против них и стремятся уничтожить людей.

Хотя могут пройти десятилетия, прежде чем мы увидим роботов-гуманоидов в каждом доме, ИИ уже используется во всем мире и ежедневно взаимодействует с миллионами людей. Это включает в себя сервисных ботов в приложениях, беспилотные умные автомобили и искусственный интеллект, который может предсказать начало сердечного приступа до того, как он произойдет.

С появлением ИИ в наших технологиях я решил найти время, чтобы больше узнать об этой теме. Мне посчастливилось узнать об искусственном интеллекте и машинном обучении на курсе IBM AI Foundations на Coursera*. Благодаря курсу я не только узнал больше о том, что ИИ и машинное обучение делают для нас сегодня, но также узнал о важности ответственного ИИ, следуя этическим нормам.

Но прежде чем я углублюсь в это, что такое ИИ и машинное обучение?

Что такое ИИ и машинное обучение?

По словам экспертов IBM, на очень высоком уровне ИИ (искусственный интеллект) — это «инструмент, который имитирует человеческий интеллект для выполнения задачи практически без вмешательства человека».

«ИИ» часто используется взаимозаменяемо с термином «машинное обучение», хотя это не совсем одно и то же. Машинное обучение — это подмножество ИИ, которое анализирует данные на основе компьютерных алгоритмов для принятия разумных решений, таких как планирование, распознавание, решение проблем и манипулирование данными.

Системы ИИ могут не нуждаться в большом участии человека для принятия разумных решений, но люди также несут ответственность за то, как ИИ применяется в наших технологиях и как он может влиять на людей. Вот несколько лучших практик, которые я изучил для ИИ.

Лучшие практики искусственного интеллекта

Избегайте создания или усиления предубеждений

Одной из печально известных проблем с ИИ является озабоченность по поводу распознавания лиц и расового профилирования. Многие камеры наблюдения используют распознавание лиц для выявления разыскиваемых лиц, чтобы снизить уровень преступности и помочь правоохранительным органам. Хотя это может оказать положительное влияние на сообщества, существует обеспокоенность по поводу того, насколько хорошо ИИ-распознавание может различать людей по чертам лица. Были ситуации, когда невиновные граждане были ошибочно идентифицированы как разыскиваемые лица из-за отсутствия разнообразных данных, которые ИИ мог бы использовать для распознавания лиц.

Если системы искусственного интеллекта не имеют достаточного количества данных, представляющих различные типы демографии, это может повлиять на надежность организации, серьезно повлиять на благополучие людей и привести к некоторым серьезным юридическим проблемам. Должны быть не только данные, гарантирующие одинаковое представление всех демографических групп, но и команды, работающие над системами ИИ, должны быть такими же разнообразными, чтобы использовать различные точки зрения и подходы при создании и обслуживании систем ИИ.

Уважайте частную жизнь и безопасность людей

С более широким использованием специализированной рекламы и персонализированных алгоритмов на сайтах социальных сетей люди становятся более осторожными в отношении того, какую личную информацию они предоставляют в Интернете и как эта информация используется. Как и другие продукты, которые собирают пользовательские данные, для систем ИИ так же важно следовать одному и тому же протоколу уважения конфиденциальности пользователей и принятия соответствующих мер безопасности.

При сборе данных и информации для улучшения систем ИИ необходимо установить границы, чтобы гарантировать, что собираются только релевантные данные, данные хранятся в безопасности и эта информация никогда не используется не по назначению.

Будьте прозрачными с пользователями

Чтобы пользователи чувствовали себя более комфортно при взаимодействии с системой ИИ, пользователи должны знать, когда они взаимодействуют с системой ИИ, и должны быть проинформированы о том, что они могут ожидать при взаимодействии с ней. Люди должны быть осведомлены о том, какие данные собираются, почему они собираются и как эти данные будут использоваться с помощью доступных политик и условий обслуживания.

Быть ответственным

Чтобы завоевать большее доверие пользователей, организации должны нести ответственность за свои системы искусственного интеллекта. Организации несут ответственность за сбор и использование данных по назначению, обеспечение работоспособности ИИ и соблюдение законов и политик. Чтобы выполнять указанные обязанности, эти системы должны постоянно контролироваться, поддерживаться и улучшаться реальными людьми.

Один из способов сохранить подотчетность — установить и опубликовать набор принципов ИИ, которым необходимо следовать. Такие организации, как Разведывательное сообщество США и Google, установили собственный набор принципов ИИ, чтобы информировать пользователей о том, как они ответственно используют ИИ, и гарантировать, что их сотрудники соблюдают их принципы.

Используйте ориентированный на пользователя подход

Как и любой другой успешный продукт, системы ИИ должны разрабатываться и интегрироваться с учетом потребностей пользователей. Понимание того, кто ваши целевые пользователи, проведение исследований пользователей, сбор отзывов и итерации для улучшения взаимодействия с пользователем, могут изменить то, как пользователи взаимодействуют с ИИ. Если пользователи не участвуют в процессе создания и обслуживания системы ИИ, это может не только отрицательно сказаться на их опыте работы с системой, но и удержать их от взаимодействия с продуктом, для которого система ИИ создана полностью.

Последние мысли

Если вы работаете с продуктами, то рекомендации IBM, вероятно, покажутся вам знакомыми. Как и любой другой продукт, решения, принимаемые в отношении систем ИИ, должны тщательно продумываться с учетом ваших пользователей. Эти методы призваны помочь организациям и людям, работающим с ИИ, нести ответственность за разработку и обслуживание систем ИИ и избегать любых этических проблем, с которыми могут столкнуться люди.

Если вы в настоящее время работаете с ИИ, какие методы вы применяете для смягчения любых этических проблем?

Дженнель Валера (Jennelle Valera) – дизайнер продуктов в Ncontracts. Ей нравится решать неоднозначные задачи с творческим подходом. В свободное время она пробует новые блюда, смотрит последние шоу Netflix и небрежно побеждает других в видеоиграх.

*эта статья не спонсируется IBM или Coursera.