Ошибки являются естественной частью человеческого поведения. Большинство наших ошибок — это мелкие, несущественные просчеты или временные упущения в здравом уме. У всех нас бывают плохие дни, перепады настроения или старшие моменты, которые вызывают невынужденные ошибки. Импульсивность и усталость тоже не помогают нам принимать правильные решения. Неудивительно, что искусственный интеллект (ИИ) был так тепло воспринят как лекарство от человеческого состояния.
По мере ускорения внедрения ИИ мы передавали решения с высокими ставками технологическим решениям. Мы ожидаем, что системы ИИ будут определять справедливые приговоры к тюремному заключению, справедливо одобрять кредитные заявки и выполнять распознавание лиц без расовых или гендерных соображений.
Преимущества ИИ
Мы влюбились в системы искусственного интеллекта как источник прогнозного моделирования и автоматизированного принятия решений. Визионеры представляли себе утопию ИИ без вмешательства человека. Разработчики поспешили создать системы ИИ, которые работали эффективно, использовали сложные алгоритмы для получения стабильных результатов и со временем становились умнее благодаря машинному обучению. Около 64% всех предприятий зависят от ИИ для роста производительности.
Системы искусственного интеллекта универсальны, точны, надежны, автономны (самокорректирующиеся), быстры и доступны по цене. Это весомый список преимуществ, оправдывающих использование ИИ практически для любых вычислительных потребностей.
Системы ИИ успешно справляются с некоторыми довольно сложными задачами, такими как:
- Преодоление опасных ситуаций с помощью роботов под управлением ИИ для тушения пожаров, обезвреживания бомб или ликвидации разливов химикатов.
- Улучшайте отношения с клиентами с помощью сервисных приложений, таких как «Einstein» от Salesforce или «Erica» от Bank of America, помогая миллионам клиентов получать необходимую им помощь — увеличивая рентабельность инвестиций в маркетинг в 4–5 раз за счет персонализации маркетинговых сообщений для отдельных лиц.
- Инновации способами, которые невозможно представить без ИИ. Domino’s Pizza использует искусственный интеллект для интеграции данных о погоде в управление кадрами и цепочками поставок. Не удивляйтесь, если вашу пиццу доставят на беспилотном транспортном средстве с искусственным интеллектом.
Достижения в использовании ИИ были началом идеальной истории любви… до тех пор, пока не были признаны пагубные последствия предвзятости.
Нам стало известно о предвзятости в системах ИИ, которые выполняли проверки при приеме на работу, поступлении в университеты, уголовное правосудие, практику банковского кредитования, медицинские услуги и многое другое. Предвзятость вызвала растущий протест против систем ИИ. Мы променяли справедливость на последовательность? Социальная справедливость для доступности?
Предвзятость в технологии является основной причиной несправедливых результатов. Предвзятые данные приводят к ошибочным выводам и некачественным рекомендациям. Неважно, используете ли вы самые лучшие и сложные инструменты искусственного интеллекта. Предвзятость губительна и дискриминационна.
Разлюбить
Мы на горьком опыте убедились, что системы искусственного интеллекта не маскируют человеческие предубеждения. Решения систем ИИ могут быть такими же несправедливыми, предвзятыми или дискриминационными, как и люди, которые задумали и закодировали в них предвзятость. Масштабы приложений ИИ делают нежелательные результаты более впечатляющими и тревожными.
На всех должностях и уровнях сообщества разработчиков программного обеспечения не хватает разнообразия — основной источник предвзятости. В конце концов, большинство систем искусственного интеллекта моделируются по поведению человека. Узкие перспективы увеличивают вероятность предвзятости.
Машинное обучение (ML) — еще одна отправная точка для предвзятости. Системы ИИ обучаются на данных. Когда для обучения используются исторические данные, они часто отражают представление о периоде времени, в который они были собраны. Личная информация о военной службе, записях об арестах или даже почтовом индексе может быть использована с расовой предвзятостью. Данные, выбранные для обучения машинному обучению, могут создать смещение, усиливающее эхо-камеру.
Когда системы ИИ допускают ошибки, в отличие от людей, они часто бывают большими, последовательными и вредными. За вынужденными ошибками следует общественное возмущение, наносящее ущерб брендам и репутации. Рискованно полагаться исключительно на системы искусственного интеллекта, где предвзятость не проверяется.
Извлеченные уроки любви
Почти каждая проблема, требующая технологического решения, выглядела как рецепт для ИИ. Так было до тех пор, пока мы не осознали разрушительное воздействие предвзятости. Осведомленность — это первый шаг к контролю над предубеждениями. На этом пути мы усвоили несколько важных уроков, таких как:
- Не принимайте справедливость как должное. Скорее справедливость — это характеристика дизайна, которая должна быть встроена в каждый аспект разработки алгоритмов и систем ИИ.
- Приложения с высокими ставками требуют одновременного участия лиц, принимающих решения, и ИИ. Риск необъяснимых или неблагоприятных исходов слишком велик.
- Выбирайте информирование, а не возмущение. Системы ИИ, оказывающие сильное влияние на общество, требуют понимания общественных настроений и возможности делиться различными точками зрения.
- Избегайте технологии громоотводов. Приложения для распознавания лиц не имеют приемлемого уровня точности в очень разнообразном обществе.
- Безопасность персональных данных — это уязвимость, которую необходимо устранять, рискуя потерять общественное доверие.
- У сотрудников есть агентство по ограничению предвзятости. Например, сотрудники Google отказались помочь с разлучением семей на границе.
Осознавая предвзятость и применяя эти уроки, мы можем начать восстанавливать доверие к алгоритмам и системам ИИ. Борьба с предубеждениями и восстановление доверия требуют некоторых вмешательств.
Научитесь снова любить ИИ
Ни одна система или процесс не является чисто технической. Наша технология имеет социальную составляющую. Чтобы уменьшить предвзятость, новые правила гарантируют, что наши системы искусственного интеллекта не повторят ошибок прошлого и реализуют обещания искусственного интеллекта в социальном контексте справедливости и равноправия.
Новые правила для систем ИИ для восстановления доверия:
- Создавайте показатели справедливости и измеряйте справедливость на каждом этапе процесса разработки технологии: проектирование, кодирование, тестирование, обратная связь, анализ, отчетность и снижение рисков.
- Разрабатывайте модели для тестирования систем искусственного интеллекта, которые бросают вызов результатам, таким как контрфактическое тестирование. Убедитесь, что результаты могут быть воспроизведены и объяснены.
- Выполняйте параллельное тестирование искусственного интеллекта и человека. Используйте сторонних судей, чтобы оспорить точность и возможную предвзятость результатов.
- Назначьте линии ответственности в организации. Объясните сотрудникам, что устранение предвзятости — это обязанность каждого.
- Опередите злоумышленников с помощью современных решений и процедур для обеспечения безопасности данных. Взлом — это возможная точка входа для предвзятости.
- Инвестируйте в разнообразие сообщества разработчиков программного обеспечения. Поддерживайте общественные колледжи и программы сертификации, чтобы привлечь более разнообразную группу кандидатов на разработку программного обеспечения.
С ИИ происходят хорошие вещи, которые обнадеживают и обнадеживают. Извлеченные уроки и новые правила демонстрируются увлекательными способами. Будущее с меньшими предубеждениями помогает нам снова полюбить ИИ. Примеры нового ИИ, который невозможно не полюбить:
Улучшить новости
Лаборатория искусственного интеллекта Массачусетского технологического института под руководством Макса Тегмана создала приложение, которое поможет потребителям лучше контролировать новости с гораздо более широким выбором. Improvethenews.org был разработан, чтобы восполнить потребность в более точной классификации новостей с более четким пониманием точки зрения. Перед запуском команда разработчиков привлекла широкое сообщество заинтересованных участников и создала систему рейтинга для более чем 500 новостных агентств. После первоначальной оценки людей ML взял на себя ответственность и теперь ранжирует и оценивает новости. Приложение позволяет пользователям выбирать точки обзора, которые они хотят.
Инструмент обеспечения справедливости LinkedIn (LIFT)
LIFT — это набор инструментов с открытым исходным кодом, помогающий выявить предвзятость. LinkedIn — крупнейший в мире профессиональный поисковый сайт с более чем 700 миллионами подписчиков. LIFT был разработан для выявления предвзятости в алгоритмах поиска работы. LinkedIn присоединяется к IBM и Accenture в разработке наборов инструментов для борьбы с предвзятостью в бизнесе.
Наблюдение за сточными водами
Приложение позволяет проводить экспресс-тестирование ДНК сточных вод на наличие COVID-19. Эта система ИИ может предоставить один из самых ранних сигналов о горячей точке без какой-либо предвзятости сообщества. После обнаружения COVID-19 в сточных водах больницы и службы экстренного реагирования могут подготовиться к увеличению нагрузки. COVID-19 трудно контролировать, потому что у некоторых людей нет симптомов, и большие группы населения могут быть исключены из индивидуального тестирования. Наблюдение за сточными водами не имеет предвзятости, что позволяет проводить одну из самых ранних форм обнаружения.
Эти примеры демонстрируют, что технологические решения могут решить проблему предвзятости. Контролировать предвзятость сложно. Мы находимся на переломном этапе в нашей приверженности честности и этичному использованию знаковых технологий. Давайте продолжим историю любви.