Авторы: Адхар Шарма, Раамеш Гоури Рагхаван и Сукант Хурана
Искусственный интеллект - огромная помощь человечеству. К сожалению, возможности для неправильного использования также огромны. Учитывая тенденции корпоративных и государственных структур к установлению господства, мы анализируем этические проблемы и отстаиваем необходимость демократизации.
Ключевые слова: данные, искусственный интеллект, искусственный интеллект, демократия, социальный контроль, права, конфиденциальность, прозрачность, равенство, защита данных.
«Мало быть только избирателями. Надо быть законодателем; в противном случае те, кто может быть законодателем, будут хозяевами тех, кто может быть только избирателем ». - Б. Амбедкар
Рассмотрим следующий сценарий: вы опаздываете на собеседование своей мечты. Вы берете сумку-почтальон и выбегаете из квартиры, не беспокоясь о свете или дверных замках: они чувствуют ваше отсутствие и действуют соответственно. Пока вы тревожно дергаетесь в лифте, ваш смартфон, узнав о встрече, вызывает такси без водителя. Запрыгнув в автомобиль, вы открываете службу потоковой передачи музыки, и она автоматически настраивает вас на Бранденбургский концерт, решая, что вам нужно успокоиться: пот на ладони многое передает устройству. По прибытии вы бросаетесь в здание, потому что ваш электронный кошелек автоматически оплачивает поездку. Заканчивая собеседование, вы чувствуете уверенность в своих шансах, но позже обнаруживаете, что вас отвергли из-за вашей сексуальной ориентации в укромном уголке - это было обнаружено странной камерой на столе комиссии, которая продолжала смотреть на вас.
Как бы вы себя чувствовали?
Это даже не что-то футуристическое: искусственный интеллект (ИИ) пронизывает нашу жизнь сегодня. От поиска свиданий в Tinder на выходных до новых планет во Вселенной - практически любая область использует это. ИИ - это большой технологический прорыв, но он постоянно вызывает споры. С одной стороны, это огромная помощь геологам в предсказании землетрясений, но с другой стороны, это все еще достаточно наивно для людей, чтобы научить их практиковать расовую дискриминацию. Хотя любая открытость или прозрачность в технологии заслуживает похвалы, секретность большинства продуктов становится причиной беспокойства с точки зрения потенциального использования. В своем нынешнем состоянии ИИ, похоже, создан специально для технических титанов (возможно, удобен и для авторитаризма); пока организации защищают свои инвестиции, мы как простые потребители обязаны понимать их истинные намерения и бороться за свои права.
Данные - это не просто данные
Педро Домингос, профессор машинного обучения Вашингтонского университета и автор книги «Главный алгоритм»:
«Люди беспокоятся, что компьютеры станут слишком умными и захватят мир, но настоящая проблема в том, что они слишком глупы и уже захватили мир.»
Социальные сети, поисковые системы, Интернет вещей и аналогичные платформы сегодня производят огромные объемы данных, которые могут дать неоценимую информацию о нашем мире (они точно знают, когда нам нужно повторно заказать туалетную бумагу). По некоторым оценкам, к 2020 году будет более 3 миллиардов активных смартфонов и более 150 миллиардов сетевых датчиков, что в 18 раз больше, чем предполагаемая численность населения, к следующему десятилетию. Другими словами, объем данных, производимых в объеме, будет намного больше, чем то, что мы производим сегодня. Эта привлекательность больших данных заманивает компании - и правительства - в ловушку для инвестиций и капитализации.
Итак, как данные могут изменить динамику общества? Общество, управляемое данными, будет таким, в котором данные будут иметь преимущественную силу при определении организации обороны, экономики и всех других государственных политик. Футуристический вопрос, будет ли когда-либо существовать такое общество, является спорным, но следует признать, что мы уже живем в мире, где данные влияют на большинство решений. ИИ дополняет человеческое искусство принятия решений, изучая данные (анализ данных), чтобы обнаруживать интересные закономерности и предлагать возможные решения возникшей проблемы. Инструмент, который не только помогает принимать решения за счет использования ресурсов (времени, рабочей силы, капитала и т. Д.), Но также соответствует явным критериям (настраиваемый: точность, скорость, универсальность, и др.), несомненно, имеет большой потенциал для трудоустройства в любой отрасли.
Например, когда вы сообщаете электронное письмо как спам, ИИ в Gmail узнает об этом и обновляет «спам-фильтр». Когда приходит новое письмо, похожее на спам, ИИ решает выбросить его прямо в корзину для спама. Таким образом, вы не увидите подобных писем в папке «Входящие» (а в списке спама). Однако, если вы считаете, что он принял неправильное решение (неправильная классификация: ложное срабатывание), вы всегда можете распаковать его и заставить ИИ узнать об этом.
Именно такие приложения привлекают к ИИ огромное внимание и интерес как в промышленности, так и в правительстве. ИИ, предлагающий решения для исследования людей, ограничен в своих силах. Однако этого нельзя сказать об автономном ИИ, принимающем решения, который может действовать без одобрения человека. Сила автономии не обязательно означает, что ИИ будет просто недоброжелательным или доброжелательным, это приложение и обстоятельства, которые действительно будут определять поведение такого ИИ.
В настоящее время на выявление и классификацию раковых тканей у онкологов уходит более 4 часов. Чтобы эффективно нацелить лучевую терапию, важно быстро и точно анализировать сканированные изображения. Алгоритмы искусственного интеллекта, такие как сегментация изображения (есть ли зеленая капля?) И классификация (является ли эта зеленая капля раковой?), Помогают обнаруживать опухоли с удивительной скоростью и точностью. Исследователи DeepMind Health сотрудничали с UCL Hospitals, чтобы обучить модели искусственного интеллекта, которые быстро выполняют сегментацию и повышают качество лечения, предлагаемого пациентам.
Очевидно, что ИИ приносит огромную пользу человечеству. Тем не менее, автономия в ИИ также может стать серьезным препятствием на пути к этической значимости. Медицинская промышленность испытывает нехватку органов, готовых к пересадке; врачи должны быстро решить, какой кандидат получит это. Этот процесс включает в себя множество этических дилемм, достаточно сложных для врачей - когда ИИ начинает принимать эти решения, этические границы становятся еще более размытыми. Например, исследователи из Университета Дьюка разработали систему принятия решений, которая выбирает получателя для трансплантации почки. Его попросили выбрать между молодым алкоголиком и пожилым человеком, пережившим рак; он выбрал молодого человека. Но этическая дилемма такова: если мальчик вернется к своему пьяному образу жизни, он, вероятно, тоже повредит новую почку. Возможно, старший (с новой жизнью) мог бы сделать что-нибудь более позитивное. Это решение, которое не могут принять самые опытные врачи, поскольку оно основано на сценариях, которые практически невозможно предсказать (что, если молодой человек не пил? Что, если рак у старшего вернется?). Под вопросом алгоритм принятия решения, которого он может даже не понять, насколько этично решение такой системы?
Другой способ, которым ИИ помогает принимать решения, - это противодействие когнитивным предубеждениям. Однако автономность также может сделать системы уязвимыми для угроз безопасности и неожиданных инцидентов. Вот пример: 6 мая 2010 года на фондовом рынке США произошел обвал (печально известный «внезапный обвал»), унесший миллиарды долларов от финансовых махинаций. Почему? Потому что высокочастотная система обнаружения аномалий (ИИ автономного принятия решений) не смог обнаружить почти 19000 поддельных заказов на продажу. В считанные минуты цены упали, уничтожив с рынка почти триллион долларов. Позднее уголовное расследование пришло к выводу, что трейдер использовал ранее неизвестные уязвимости (системы обнаружения аномалий) и структуру рынка, что привело к фиаско. Тестировать простое программное обеспечение достаточно сложно, ИИ с такой высокой пропускной способностью практически невозможно полностью протестировать или отследить поведение в режиме реального времени. Если система беспрецедентным образом нарушит какое-либо граничное условие, весь механизм погрузится в хаос.
Другая проблема - прозрачность в искусственном интеллекте. Самые продвинутые алгоритмы в искусственном интеллекте - это черные ящики, никто полностью не знает, как они технически принимают решения. Кроме того, компании часто держат в секрете фундаментальные конструкции проприетарных алгоритмов. Программа может предсказать сексуальную ориентацию человека, просто взглянув на изображения лица. Другие программы распознавания лиц могут предсказывать эмоциональное состояние, политическую ориентацию и IQ людей. Некоторые публичные исследования вызывают этические противоречия. Однако количество неэтичных алгоритмов, применяемых в отрасли или в государственных учреждениях, возможно, никогда не будет достоверно известно.
«Я думаю, что политические системы будут использовать [ИИ], чтобы терроризировать людей». - Джеффри Хинтон
Независимо от того, насколько мы доверяем, эти алгоритмы могут унаследовать предвзятость, если мы обучаем их на данных, которые уже предвзяты. Например, если обучить модель искусственного интеллекта на наборе данных о судимости, имеющем предвзятость в отношении афроамериканцев, алгоритм начнет с этой встроенной предвзятости. Некоторые штаты в США выставляют преступникам оценку риска. , который прогнозирует вероятность совершения преступления в будущем и помогает суду определить оптимальное наказание. Однако теперь считается, что это привносит расовую предвзятость в суд; Было несколько случаев, когда чернокожий человек, впервые привлеченный к уголовной ответственности, имел значительно более высокую оценку риска, чем печально известный белый преступник. Компания, разработавшая систему, отказывается раскрывать расчеты, которые она использует для присвоения этой оценки.
Отсутствие демократического контроля еще больше усугубляет проблему прозрачности. Это заставляет задуматься, являются ли данные случайным проявлением предвзятости в ИИ, или это компании и правительства, которые тайно регулируют ИИ, чтобы установить доминирование или проводить дискриминацию на основе субъективных критериев?
Поскольку мы все больше и больше зависим от таких технологий, как поисковые системы и социальные сети, потенциал для возможной эксплуатации - путем явного навязывания предвзятости в области данных - также растет. Есть шанс, что контроль над данными об избирателях может склонить правительства возиться с выборами, чтобы они продолжали побеждать. Компании тоже могут получить финансовую выгоду, настроив алгоритмы, которые продвигают дочерний бизнес по сравнению с бизнесом конкурента. Правительства или организации, обладающие такими полномочиями, могут установить господство над всеми остальными; это угроза социальной сплоченности.
Если набор данных чистый, но системы действительно работают плохо, а не подвергаются внешним манипуляциям, то с технологией что-то не так (поскольку все алгоритмы не идеальны, а ошибки являются обычным явлением в кодах) и исследователи обязаны анализировать лежащие в основе алгоритмы, чтобы избавить их от болезней. Однако большинство этих систем надежно защищены правами интеллектуальной собственности. Компании часто перепродают свою продукцию и публикуют только неопределенные детали, которые редко раскрывают значимую информацию об оборудовании. Инкапсуляция таких деталей, как методы исследования и алгоритмические вычисления, имеет важное значение в конкурентной отрасли, но существенный недостаток публичной информации (прозрачности) помимо спорных эпизодов, естественно, вызывает подозрения.
Безусловно, из технократии социального контроля - с использованием машин с искусственным интеллектом - может возникнуть новая форма диктатуры. Чтобы предотвратить появление глобального контроля сверху вниз, мы должны демократизировать ИИ, который требует прозрачности и защиты конституционных и гражданских прав. Также кажется, что это лучшее время, чтобы попросить о дополнительных правах, которые защищают не только идентичность и свободу действий, но также социальную динамику и разнообразие. На пути к лучшему будущему с ИИ будет много взлетов и падений. Время от времени мы можем оказаться в неожиданной ситуации, но именно в таких ситуациях наша социальная сплоченность и государственная политика помогут нам победить.
— —
О:
Адхар Шарма был исследователем, работавшим с группой доктора Суканта Хурана, занимавшейся этикой искусственного интеллекта.
Раамеш Гоури Рагхаван сотрудничает с доктором Сукантом Хураной в различных проектах, начиная от популярных статей об ИИ, влияния технологий на искусство и осведомленности о психическом здоровье.
Г-н Раамеш Гоури Рагхаван - отмеченный наградами поэт, известный профессионал в области рекламы, историк и исследователь, изучающий взаимодействие науки и искусства. Вместе с доктором Хураной и Фарук Али Хан он также выступает за массовую борьбу с депрессией и предотвращение самоубийств.
Вы можете узнать больше о Раамеше по адресу:
Https://sites.google.com/view/raameshgowriraghavan/home и https://www.linkedin.com/in/raameshgowriraghavan/?ppe=1
Д-р Сукант Хурана руководит академической исследовательской лабораторией и несколькими технологическими компаниями. Он также известный художник, автор и оратор. Вы можете узнать больше о Sukant на www.brainnart.com или www.dataisnotjustdata.com, а если вы хотите работать над проектами в области биомедицинских исследований, нейробиологии, устойчивого развития, искусственного интеллекта или науки о данных для общественного блага, вы можете связаться с его на [email protected] или связавшись с ним по linkedin https://www.linkedin.com/in/sukant-khurana-755a2343/.
Вот два небольших документальных фильма о Суканте и видео на TEDx о его усилиях в области гражданской науки.