«Стань тем изменением, которое ты хочешь видеть в мире».Махатма Ганди

Контекст

Понимали вы это или нет, но искусственный интеллект (ИИ) быстро стал частью нашей повседневной жизни. Поскольку традиционная промышленность и предприятия, такие как финтех, СМИ, здравоохранение, фармацевтика и производство, быстро внедряют ИИ в последние годы, проблемы, связанные с этикой и надежностью, растут.

Сегодня ИИ «помогает» принимать многие важные решения, влияющие на жизнь и благополучие людей, например, кредитоспособность, одобрение ипотеки, диагностику заболеваний, трудоустройство и так далее. Было замечено, что даже под надзором человека сложные системы ИИ могут в конечном итоге принести обществу больше вреда, чем пользы.

Создание надежного и этичного ИИ — это коллективная ответственность. Мы должны применять основы на протяжении всего жизненного цикла ИИ, например, на этапах определения продукта, сбора данных, предварительной обработки, настройки модели, постобработки, производственного развертывания и вывода из эксплуатации. Без сомнения, правительство и регулирующие органы должны сыграть свою роль в мониторинге и обеспечении равных условий для всех, то же самое касается людей, создающих, развертывающих и использующих системы ИИ. Это включает в себя высшее руководство, менеджеров по продуктам, разработчиков, инженеров MLOps, специалистов по данным, инженеров-испытателей, отделы кадров/обучения и пользователей.

Предвзятость и несправедливость

Хотя надежный и этичный ИИ — более широкая тема, она тесно связана с предотвращением предвзятости и несправедливости. Как отметила Комиссия национальной безопасности по искусственному интеллекту (NSCAI) в недавнем отчете: «Оставленные без контроля, казалось бы, нейтральные инструменты искусственного интеллекта (ИИ) могут и будут увековечивать неравенство и, по сути, автоматизировать дискриминацию».

ИИ учится на наблюдениях, сделанных на прошлых данных. Он изучает особенности данных и упрощает представление данных с целью поиска закономерностей. Во время этого процесса данные сопоставляются с низкоразмерным (или скрытым) пространством, в котором «похожие» точки данных расположены ближе друг к другу на графике. Чтобы привести пример, даже если мы исключим нежелательную функцию, такую ​​​​как «гонка», из обучающих данных, алгоритм все равно будет учиться косвенно через скрытые функции, такие как почтовый индекс. Это означает, что просто отказаться от «расы» будет недостаточно, чтобы предотвратить предвзятость обучения ИИ на основе данных. Это также свидетельствует о том, что «предвзятость» и «несправедливость» данных отражают правду об обществе, в котором мы живем.

При недостаточном количестве точек данных, принадлежащих недостаточно представленным слоям общества, высока вероятность того, что на них негативно повлияет принятие решений ИИ. Более того, ИИ будет создавать больше данных благодаря своему «искаженному» обучению, которое будет использоваться для его дальнейшего обучения и, в конечном итоге, приведет к дальнейшему неравенству в процессе принятия им решений.

Надежный и этичный ИИ важен

Надежность означает «способность полагаться на честность или правдивость». Организации должны убедиться, что их системы ИИ заслуживают доверия, в отсутствие доверия могут возникнуть нежелательные последствия, такие как потеря бизнеса, репутации и деловой репутации, судебные иски и групповые иски, которые могут быть фатальными и опасными для жизни любого бизнеса.

Согласно Европейской комиссии, надежный ИИ состоит из законного, этичного и надежного ИИ.

Уважение к автономии человека, справедливость, объяснимость и предотвращение вреда — четыре важнейших основополагающих принципа надежного ИИ. Основная идея заключается в том, что ИИ должен работать на благо человека, обеспечивать безопасность, должен всегда находиться под контролем человека и ни в коем случае не причинять вреда человеку.

Кроме того, EC предполагает, что реализация Trustworthy AI будет осуществляться посредством семи действий:

Кто продвигает этичный ИИ?

Хотя ведущие технологические компании уже объявили о тех или иных инициативах в области этического ИИ и расширении полномочий руководителей, однако из-за отсутствия согласия в отношении принципов, руководящих принципов и рамок контрольных показателей трудно оценить подлинные «намерения» и фактический прогресс, стоящий за такими инициативами. Когда человечество и большая часть общества являются потенциальными жертвами, одной «самосертификации» будет недостаточно.

Правительства должны взять на себя ведущую роль в области этического ИИ и определить базовые принципы политики для отрасли, регулирующих органов, судов и пользователей. Это должно охватывать определение принципов, политики, руководств, а также эффективного надзора и нормативно-правовой базы для обеспечения защиты граждан от преднамеренных или непреднамеренных негативных последствий ИИ. Эта базовая структура должна постоянно работать и улучшаться.

Недавно федеральное правительство США подписало исполнительный указ о продвижении расового равенства и поддержке малообеспеченных сообществ, однако требуется и ожидается больше.

ЕС, ООН и министерство обороны уже взяли на себя ведущую роль в этом, при этом Руководящие принципы Европейской комиссии по этике для надежного ИИ, Разработка рекомендации ЮНЕСКО по этике искусственного интеллекта и Этические принципы Министерства обороны США для искусственного интеллекта должны рассматриваться как базовая работа для определение практического и зрелого руководства по созданию надежного и этичного ИИ.

План действий, охватывающий основные заинтересованные стороны.

Хотя мы ожидаем, что правительство, регулирующие органы и сами предприятия возьмут на себя ведущую роль в обеспечении надежности и этичности развернутого ИИ, вот предлагаемый план действий для ролей в экосистеме:

Заключение

Мы должны стремиться и действовать вместе для создания надежного и этичного ИИ для человечества и общества. При скоординированных и настойчивых усилиях это определенно возможно.