Прадип Ганеша - старший директор по управлению программами

Как-то в субботу вечером мой 8-летний сын был так молчалив, что я даже не догадывалась, что он не пошел играть. Вот он, забившись в угол, запоем смотрит свой любимый мультсериал на YouTube. Это был бездонный поток, один за другим питавший его глаза. Уже более чем через 2 часа он потерял счет времени ... Пока я не вывел его из транса и не отправил играть!

Алгоритмы искусственного интеллекта (AI) и машинного обучения (ML) сегодня широко распространены во всех сферах жизни - от тщательно подобранной последовательности содержания ваших предпочтений и потока кликов до автоматизированного отбора резюме для объявлений о вакансиях и до автономных автомобилей. Несмотря на их многократное использование, существует достаточно материалов, предупреждающих нас о ловушках ИИ и указывающих на то, что к нему нельзя относиться легкомысленно. Возьмем, к примеру, статьи, в которых цитируются пионеры отрасли, такие как Илон Маск предостерегает от ИИ, в которых говорится, что ИИ - наша« самая большая угроза существованию . Или Тед говорит, что Машинный интеллект делает человеческую мораль более важной техносоциолога Зейнепа.

Можно утверждать, что человечество уже много лет занимается дисциплинированием гораздо более совершенной формы интеллекта, HI (человеческого интеллекта), чтобы направлять свою силу конструктивными способами. Несомненно, мы довольно успешно работали с ним как с видом, несмотря на временные неудачи.

Так в чем же весь этот «страх» по поводу ИИ? Что ж, с большой силой приходит большая ответственность. Эта ответственность может быть использована неправильно отдельными слоями человечества - вполне обоснованное беспокойство. Ответ вполне может лежать в «истории» - в том, как общество веками обращалось с интеллектом. Нам нужно найти способы сделать этику нормой по умолчанию в ИИ, обращая особое внимание на следующие ключевые аспекты:

  1. Управление: определите правила игры: вопросы, на которые необходимо ответить: где и для каких целей можно законно использовать ИИ? Каких правил следует придерживаться с этической точки зрения? Как вы обеспечиваете соблюдение руководящих принципов? Например, использование ИИ для любых дискриминационных аспектов отказа в публикации из-за цвета кожи / касты / пола является строгим запретом и должно включать в себя карательные меры в отношении компании / юридического лица, которое пересекает черту.

Успехи в управлении: такие инструменты, как What-If Tool (от Google), Audit-AI (https://github.com/ pymetrics / audit-ai от Pymetrics) разрабатываются для выявления предвзятости. Следующий шаг - привести их в соответствие с набором отраслевых рекомендаций. Это должно быть обязательной частью любого реального использования ИИ для принятия решений, которое должно осуществляться руководящим органом (например, проводя параллели с соблюдением требований PCI в индустрии карт).

2. Способность к объяснению: делайте решения ИИ понятными и контролируемыми. Объясняемый ИИ (XAI) относится к методам ИИ, которым можно доверять и которые легко понять людям. Я считаю, что это, безусловно, самый важный аспект этичности ИИ. Если ИИ помогает / принимает решения от имени людей, алгоритм должен четко указать основное правило, которое он применял, чтобы прийти к рекомендации / заключению «без нечетких терминов и на понятном для человека языке». Если алгоритм ИИ неспособен сформулировать рассуждения, он не подходит для цели. Он не может скрыться под видом обучения на основе релевантных данных XYZ. Фактически, «Отделение наук об ИИ, переводящее действия ИИ на понятный человеку язык» требует самого пристального внимания для развития ИИ. Принятие ИИ решений на основе морали не подлежит обсуждению.

Успехи в области объяснения: такие организации, как DARPA (Агентство перспективных оборонных исследовательских проектов), работают над инструментами XAI, которые делают решения ИИ более объяснимыми. Подробнее здесь: https://www.darpa.mil/program/explainable-artificial-intelligence

3. Подотчетность: определите модель собственности: действие / рекомендация ИИ нельзя оставлять наедине с собой. Он должен принадлежать физическому или юридическому лицу, которое участвовало в его создании, использовало его как инструмент или извлекло выгоду из него. Например, если в аварию попал беспилотный автомобиль, и вина за него лежит на т / с, кто должен понести ущерб? Автовладелец? Компания-производитель автомобилей? Или какой-то другой субъект, который создал алгоритм под капотом?

Успехи в обеспечении подотчетности: зрелость способностей к объяснению, сопровождаемая надежной юридической практикой в ​​отношении присвоения прав собственности, должна помочь добиться прогресса в этом аспекте, который все еще находится на начальной стадии.

4. Постоянно улучшайте, чтобы этика не отставала от технологий. Первые 3 пункта не являются чем-то одноразовым. Это должен быть непрерывный процесс, который будет совершенствоваться и развиваться по мере развития технологий.

Конечно, все это легче сказать, чем сделать. Возникает множество вопросов: каков согласованный набор правил? Как мы можем добиться этого? Кто несет ответственность?… Можно воодушевиться тем фактом, что, если человечество могло иметь дело с чем-то столь же мощным, как ядерная энергия, и использовать ее чаще в конструктивных целях, чем иначе, ИИ - это то, что мы можем приручить! Но нам не нужно идти к этому трудным путем. Некоторые компании вносят свой вклад. Например, Google объявил, что «для определения этики разработки ИИ он создает Правление с различными мнениями» только в марте 2019 года. Но достаточно ли делают регуляторы? Конечно, мы не хотим, чтобы мир заметил момент Хиросимы и начал действовать.