Изначально я считал, что алгоритмы, обученные должным образом, будут принимать лучшие и беспристрастные решения, чем человек. На этой неделе мне поручили провести два исследовательских опроса, которые открыли мне глаза на проблему предвзятости и справедливости в машинном обучении.

Первая статья, которую я буду обсуждать в этой записи блога, «Опрос предвзятости и справедливости в машинном обучении Нинаре Мехраби, Фреда Морстаттера, Нрипсуты Саксены, Кристины Лерман и Арама Галстяна, Usc-isi». Эта статья привлекла меня тем, что посвятил раздел, чтобы ознакомить читателей с проблемой, освещенной в статье, а именно предвзятостью и несправедливостью, которые можно найти в алгоритмах машинного обучения. Чтение реальных последствий алгоритмической несправедливости показало мне важность этого опроса. Авторы продолжили создание таксономии определений справедливости, которые исследователи машинного обучения определили, чтобы избежать существующей предвзятости в системах ИИ, и выделили различные виды предвзятости и дискриминации. Одной вещью, которая казалась неправильной в этой статье, был пример, на который ссылаются в этой статье, чтобы объяснить объяснимую дискриминацию. В этом документе упоминается, что мужчины в среднем имели более высокий годовой доход, чем женщины, согласно набору данных UCI Adult, и авторы этого документа объяснили, что из-за того, что женщины работают меньше часов, чем мужчины в неделю, усреднение их годовой заработной платы приведет к обратная дискриминация, поэтому эта ситуация подпадает под объяснимую дискриминацию. Я считаю, что авторы должны были отметить важную вещь, если бы сравнение проводилось между мужчинами и женщинами в одной и той же области. На использование только среднего числа женщин и мужчин по всем направлениям может повлиять то, что женщины, как правило, не имеют доступа к высокооплачиваемым должностям, которые могут требовать большего количества часов и выравнивать разрыв в оплате труда. При этом я не думал, что этого примера будет достаточно для описания объяснимой дискриминации.

В целом, данные в этой статье были правильно организованы и проиллюстрированы. В этой статье также был сделан дополнительный шаг, чтобы выделить возможные плодотворные области исследований, такие как обнаружение справедливости сообществом на уровне подгрупп, которые могут быть важны для некоторых читателей. Я считаю, что эта статья достигла своей цели, заставив читателей глубоко задуматься, чтобы гарантировать низкую вероятность причинения потенциального вреда или предвзятости по отношению к определенной группе при работе над системой или методом.

Наконец, я хотел бы вернуться к этой статье, когда буду более осведомлен в этой области, потому что мне было трудно понять большую часть информации и данных в этой статье из-за ее высокой технической сложности.

Второй документ, который я буду обсуждать, который, должен сказать, мне понравился намного больше, чем первый, это: Дискриминация по алгоритму: систематический обзор дискриминации и справедливости с помощью алгоритмического принятия решений в контексте найма и развития кадров. Алина Кёхлинг и Мариус Клаус Венер. Мне понравилась эта статья намного больше, потому что она была более удобна для начинающих с точки зрения технической документации. Эта статья была посвящена тому, чтобы познакомить читателя с проблемами, которые могут возникнуть исключительно в зависимости от алгоритмического принятия решений при наборе и развитии персонала, а также о том, насколько негативно соискатели реагируют на участие алгоритмов в этих процессах. Одним из самых интересных для меня моментов в этой статье было то, что первоначальная цель большинства фирм, использующих алгоритмический процесс принятия решений в контексте управления человеческими ресурсами, состояла в том, чтобы уменьшить человеческие предубеждения и повысить справедливость, последовательность, производительность и минимизировать риски, но из-за исторических данных, переданных в их модели, все было наоборот. Это помогло мне понять, что программист не может быть предвзятым или иметь намерение маргинализировать определенную группу или создать предвзятую алгоритмическую систему, но из-за данных, которые они используют, результатом может быть модель/система, предвзятая алгоритмически. Единственная слабость в этой статье, которую я мог заметить, заключалась в том, что в ней не учитывались множественные определения справедливости в процессе проверки, приемлемости и включения.

В целом, мне понравился уровень внимания к объяснению рисунков и терминов, представленных авторами этой статьи, и я думаю, что системный обзор современной литературы с акцентом на найме и развитии HR показал, что алгоритмическое принятие решений не является решением. к устранению предубеждений и что алгоритмы могут быть уязвимы для предубеждений и несправедливости, если они построены на предвзятых, нерепрезентативных, неточных или исторических входных данных и данных обучения.