Майское обновление: для перевода оглавления из Документов Google в Medium требуется жесткое кодирование, поэтому дальнейшие обновления будут публиковаться динамически по этой ссылке на Документы Google. Посетите эту ссылку, чтобы получить последние обновления документа ниже.

Это постоянно обновляемый набор информации и ссылок о том, кто чем занимается в сфере политики, законов и этики в области ИИ. Этот список постоянно дорабатывается. Я яростно просматриваю свои исследовательские записи, чтобы выделить темы, людей, организации и ресурсы, но это постоянная и трудоемкая работа. Вместо того, чтобы позволить лучшему быть врагом хорошего, я хотел опубликовать этот незаконченный ресурс сейчас и постоянно обновлять его.

Если вы добавите предложения в комментарии, я их объединю.

Основные определения ИИ для политиков см. В этой статье.

В приведенном ниже оглавлении есть ссылки на подразделы документа. Вы также можете найти поиск в браузере (команда-f), так как документ очень длинный.

Последние изменения от 8 апреля - реорганизованы темы, добавлены ссылки на оглавление и обновлен ряд тем.

СОДЕРЖАНИЕ

Этика, ценности, права, прозрачность, предвзятость, нормы и доверие

Общие проблемы безопасности при использовании AI, AGI, ASI и злонамеренного использования

Личная конфиденциальность, информационная безопасность, индивидуальный контроль доступа и будущее доверия

Системы правопорядка, безопасности и автономного оружия

Экономические и гуманитарные вопросы

AI и закон

AI, правительство и регулирование

ИИ, взаимодействие людей, общество и человечество

События политики ИИ

Организации, занимающиеся политикой искусственного интеллекта

Новостные сайты AI

Специалисты в области ИИ

Этика, ценности, права, прозрачность, предвзятость, нормы и доверие

В своей книге Машины любящей благодати Джон Маркофф пишет: Лучший способ ответить на трудные вопросы об управлении в мире, полном умных машин, - это понять ценности тех, кто действительно строит эти системы.

Этика и предвзятость ИИ

Фонд этики и управления искусственным интеллектом: цель проекта Этика и управление искусственным интеллектом - поддержать работу по всему миру, которая способствует развитию этического ИИ в общественных интересах с упором на прикладные исследования и образование. Сотрудничает с Центром Беркмана Кляйна в Гарварде и MIT Media Lab.

Платформа моральной машины: основанные на краудсорсинге ожидания того, как автономное транспортное средство должно принимать моральные решения.

OpenEth основан на том принципе, что этика и мораль измеримы, поддаются определению и вычислению для разных культур, времени и географии.

Совет по большим данным, этике и обществу объединяет исследователей из разных дисциплин - от антропологии и философии до экономики и права - для решения таких вопросов, как безопасность, конфиденциальность, равенство и доступ, чтобы помочь предотвратить повторение известных ошибки и недостаточная подготовка.

Этика искусственного интеллекта и автономные транспортные средства

Современная версия Задачи о троллейбусах. Должно ли автономное транспортное средство защищать своего пассажира любой ценой, даже если это означает врезаться в толпу пешеходов? Или транспортное средство должно выполнять утилитарные расчеты, чтобы минимизировать человеческие жертвы, даже если это означает гибель его пассажира (ов)? Опросы показывают, что люди хотят последнего абстрактно, но они хотят, чтобы их личное транспортное средство защищало их, а не применяло утилитарный подход. Мерседес решил, что его обязанность - защитить пассажира. Регулирование может помочь, но в долгосрочной перспективе может оказаться пагубным, если задержит внедрение автономных транспортных средств, которые с большой вероятностью спасут жизни в целом. Это может быть не частой проблемой, если автономные автомобили распространены и радикально сокращают количество аварий.

Эти проблемы, вероятно, будут решены с помощью традиционного закона о халатности, хотя это усложняется проблемами агентских отношений, когда ИИ не запрограммированы на выполнение конкретных действий. Если транспортное средство полностью автоматизировано, а водитель-человек больше не ведет активного управления, возникает вопрос, можно ли по-прежнему приписать ущерб водителю или владельцу автомобиля, или только производитель системы может быть привлечен к ответственности. Лицам, определяющим политику, необходимо найти компромисс между стоимостью, удобством и безопасностью.

Человеческие эксперименты и манипуляции

Человеческие эксперименты внимательно изучаются в области психологии на протяжении нескольких поколений. Какую ответственность организации несут перед людьми в отношении тонких манипулятивных инструментов, таких как подталкивание (программное обеспечение, которое предлагает вам напоминания)? Нужны ли нам кодексы поведения в отношении таких технологических экспериментов, которые могут способствовать развитию технологической зависимости?

Кодирование справедливости, политики, законов и ценностей в ИИ

Майкл Кернс, Аарон Рот, Шахин Джаббари, Мэтью Джозеф, Джейми Моргенштерн UPenn: проведите исследование того, как кодировать различные концепции справедливости из закона и философии в машинное обучение.

Справедливость, подотчетность и прозрачность в машинном обучении: объединение растущего сообщества исследователей и практиков, заинтересованных в справедливости, подотчетности и прозрачности в машинном обучении. У них есть обширная библиография по этике ИИ.

Гендерная предвзятость

Microsoft Cortana создана, чтобы противостоять злоупотреблениям и преследованиям.

Хизер Рофф: Мораль А Я обсуждаю, как представления о гендере внедряются в технологии и выражаются через них.

Нью-Йорк Таймс исследует проблему белого парня ИИ: большинство исследователей ИИ - белые мужчины, в описаниях должностей предпочтение отдается кандидатам-мужчинам, а некоторые системы ИИ не подходят для групп меньшинств.

Расовые предубеждения

Системы машинного обучения, обученные с использованием предвзятых данных, будут давать предвзятые результаты. Программное обеспечение для распознавания изображений классифицирует чернокожих людей как горилл, неправильно интерпретирует изображения азиатов как моргающих и испытывает трудности с распознаванием людей с темной кожей. А если серьезно, то инструмент искусственного интеллекта, используемый для оценки риска рецидивизма, оказался предвзятым против чернокожих подсудимых и в пользу белых подсудимых. Предвзятые инструменты прогнозирования полицейской деятельности также могут увековечивать стереотипы.

Смещение дохода

ИИ может непропорционально принести пользу сообществам с высоким доходом. Кроме того, негативные эффекты ИИ, такие как социальные сети или игровая зависимость, могут непропорционально сказаться на сообществах с низкими доходами. Есть также опасения, что многие новые технологии, которые являются слишком опасными или бездоказательными для стран с развитой экономикой, испытываются в развивающихся странах, где меньше опасений по поводу ответственности. По прогнозам, ИИ и автоматизация в первую очередь непропорционально повлияют на низкоквалифицированные рабочие места.

Человекоцентрические методологии для руководства этическими исследованиями и дизайном

Мэтт Чессен написал статью, призывающую специалистов по государственной политике сотрудничать с технологами искусственного интеллекта в обучении систем машинного обучения кодированию ценностей и устранению предвзятости. Кроме того, специалистам в области государственной политики нужна новая специальность в области больших данных и этики искусственного интеллекта.

Широкие проблемы безопасности при использовании AI, AGI, ASI и злонамеренного использования

Искусственный общий интеллект и искусственный супер-интеллект (разумные ИИ и сингулярность) заслуживают рассмотрения, но все же остаются научной фантастикой. Более серьезной проблемой является неправильное использование ИИ по неосторожности или злому умыслу.

AI Планирование Судного дня

CSER и ASU провели мероприятие Предвидение и устранение неблагоприятных результатов ИИ, на котором рассматривались многочисленные сценарии будущего, в которых ИИ могут вызвать социальные, экономические и политические бедствия.

Мэтт Чессен считает, что виртуальная реальность с поддержкой ИИ вызывает такое привыкание, что большая часть человечества откажется от реальности и перестанет размножаться.

Если вам не нужен сценарий Терминатора, не создавайте Скайнет.

Злонамеренное использование ИИ

Мэтт Чессен писал о том, как авторитарный режим может использовать алгоритм оптимизации и социальную оценку, чтобы контролировать население, и как это может выйти из-под контроля.

Личная конфиденциальность, информационная безопасность, индивидуальный контроль доступа и будущее доверия

Системы машинного обучения и глубокого обучения требуют больших объемов данных. Некоторые из этих данных могут собираться в частных помещениях, например, в наших домах, и мы можем раскрывать очень личную информацию этим системам. Возникающие концепции фидуциарной информации - аналогичные ограничениям для врачей и юристов, использующих информацию о клиентах для собственной выгоды - могут быть применены к ИИ и технологиям в целом.

Сбор и использование данных

Многие пользователи считают, что чат-боты, такие как Xiaoice, всегда доступны в режиме реального времени. Пользователи рассказывают этим ботам свои интимные секреты и даже заявляют о любви к ним. Люди также склонны терять бдительность при разговоре с личными помощниками ИИ. Ветераны чаще раскрывают секретную информацию виртуальному терапевту. Интерфейсы AI, вероятно, станут популярными в медицине и образовании, где может быть раскрыта и собрана конфиденциальная информация. Это вызывает вопросы о том, как эти очень личные данные могут быть использованы корпорациями или правительствами.

Компании могут получить выгоду от поддержки частных наборов данных, но граждане могут получить выгоду от общедоступных наборов данных.

Отличное краткое изложение угроз и положительного использования технологий больших данных.

Конфиденциальность детей

Игрушки все чаще интегрируют системы искусственного интеллекта. Родители могут не понимать, что эти системы собирают данные. Дети, скорее всего, не обладают достаточным опытом, чтобы понимать, что им следует и не следует говорить об этих системах, и они могут раскрывать PII или очень личную информацию.

Доверие к принятию решений ИИ

Как мы можем завоевать доверие систем искусственного интеллекта, поскольку мы все больше автоматизируем все аспекты нашей жизни, включая очень личное общение, такое как электронная почта? И каковы нормы и ответственность, когда системы ИИ нарушают это доверие?

Системы машинного обучения более вероятностные, чем алгоритмические, и могут не иметь проверяемых деревьев решений. Как мы можем доверять системам искусственного интеллекта, которые мы используем? Что происходит, когда системы - возможно, те, которые фильтруют фейковые новости - на самом деле фильтруют новости с определенной точки зрения, заключая нас в идеологический пузырь?

IBM: учимся доверять искусственному интеллекту и робототехнике

ИИ и его целостность, доступность и надежность:

Как предотвратить взлом, подделку или обман ИИ?

Развитие исследований AI Lab показывает, что инструменты распознавания изображений с глубоким обучением легко обмануть.

ИИ, пропаганда и дезинформация

Подобно тому, как высокочастотная торговля изменила фондовые рынки, высокочастотные сообщения могут кардинально изменить общественное мнение. В долгосрочной перспективе цены на акции по-прежнему считаются мерилом стоимости, но в краткосрочной и среднесрочной перспективе на них сильно влияют алгоритмы, которые стремятся только извлекать ценность посредством манипулятивной торговли. Точно так же сети ботов, управляемые ИИ, могут сильно манипулировать общественным мнением по вопросам, искажая правду, подрывая демократические выступления и заглушая гражданские дискуссии в Интернете. Эти инструменты будут точно нацелены на людей в зависимости от их конкретных личностных характеристик.

ИИ и психометрия

Есть опасения, что психометрические системы ИИ могут быть использованы в политических целях.

Вычислительная пропаганда

Politbots.org - это группа исследователей, изучающих влияние автоматизированных компьютерных сценариев - вычислительной пропаганды - на общественную жизнь. Эта работа включает анализ того, как такие инструменты, как боты в социальных сетях, используются для манипулирования общественным мнением путем мегафонирования или подавления политического контента в различных формах: дезинформация, язык вражды, фальшивые новости, политические преследования и т. Д.

BotWatch - это онлайн-издание, созданное для создания междисциплинарных дискуссий о ботах. Поскольку боты становятся обычным явлением в нашей жизни, BotWatch поднимает самые простые человеческие вопросы о значении, творчестве, языке и выражении.

Связь с искусственным интеллектом, управляемая машиной

Мэтт Чессен опубликовал статью, в которой описал, как средства связи с использованием ИИ (MADCOM) радикально улучшат компьютерную пропаганду. Машинная речь может заглушить человеческую речь в сети.

ИИ и противодействие троллингу и фейковым новостям

Разговорный AI: проект NY Times и Jigsaw, предназначенный для выявления онлайн-домогательств в разделах комментариев. Разговорный AI на GitHub.

Fake News Challenge - это массовое мероприятие, в котором участвуют более 100 добровольцев и 71 команда из академических кругов и промышленности со всего мира. Наша цель - решить проблему фейковых новостей путем организации конкурса для содействия разработке инструментов, которые помогут людям, занимающимся проверкой фактов, выявлять мистификации и преднамеренную дезинформацию в новостях с использованием машинного обучения, обработки естественного языка и искусственного интеллекта.

Студенты WV University работают над инструментами искусственного интеллекта для обнаружения и борьбы с фейковыми новостями.

Правоохранительные органы, безопасность и автономные системы вооружений

ИИ и автономные системы вооружения

ИИ использовались в таком оружии, как ракета Томагавк, на протяжении десятилетий, но эти системы значительно улучшаются. Летальные автономные системы оружия (АСОЛД) могут работать - и выбирать способ убивать - полностью автономно после развертывания. Мощь этого оружия повышает вероятность новой гонки вооружений, а их автономия вызывает озабоченность в отношении международных прав человека и гуманитарного права. Противники утверждают, что ЗАКОНАМ будет недоставать человеческого суждения и контекста, и они не смогут судить о соразмерности - чертах, необходимых для соблюдения закона войны. Поскольку это оружие может пассивно ждать, чтобы нанести удар, оно также вызывает проблемы - аналогично наземным минам - о непреднамеренном нацеливании на мирных жителей. Некоторые противники утверждают, что армии LAWS облегчат передовым странам ведение войн, поскольку LAWS могут снизить риск смерти для их собственных сил. Некоторые сторонники утверждают, что LAWS обеспечит высокоточное наведение на цель, уменьшив как необходимую смертоносную силу, так и сопутствующий гражданский ущерб. Они также утверждают, что солдаты-люди часто стреляют по дружественным силам, непреднамеренно нацелены на гражданских лиц и используют непропорциональную силу, а эффективные системы LAWS могут действовать с большей точностью и осмотрительностью.

Международная конвенция об обычных вооружениях в Женеве обсуждает вопросы АСОЛД.

Международный комитет по контролю над роботизированным оружием - или ICRAC (сокращенно айкрук) - это международная некоммерческая ассоциация, приверженная мирному использованию робототехники на службе человечества и регулированию роботизированного оружия.

Кампания за то, чтобы остановить роботов-убийц: коллектив НПО, работающий над упреждающим запретом полностью автономного оружия.

Управление ООН по вопросам разоружения имеет опыт работы по вопросам ЗАКОНОДАТЕЛЬСТВА.

Доктор Хизер Рофф , исследователь из Инициативы глобальной безопасности ASU и New America, пишет о проблемах ЗАКОНОДАТЕЛЬСТВА.

Совет по оборонной науке Летний этюд автономии

ИИ и правоохранительные органы

Искусственный интеллект позволяет полиции осуществлять масштабное наблюдение, сопоставляя тысячи фотографий из социальных сетей с фотографиями из баз данных водительских прав, баз данных паспортов и других источников, а затем сравнивая результаты с другими видами записей »

ACLU показал и Verge сообщили, что полиция Балтимора использовала приложение для идентификации лиц под названием Geofeedia вместе с фотографиями, опубликованными в Instagram, Facebook и Twitter, для идентификации и ареста протестующих. ACLU считает, что этот инструмент предназначен для цветных людей.

ACLU предлагает компаниям социальных сетей «ясную, публичную и прозрачную политику, запрещающую разработчикам использовать пользовательские данные для наблюдения».

Нам необходимо разработать стандарты того, что приемлемо для правоохранительных органов при использовании больших данных и искусственного интеллекта, и как они будут нести ответственность за злоупотребления.

До преступления

Такие компании, как Hitachi, запускают программное обеспечение для прогнозирования преступлений, и есть опасения, что оно может быть использовано для ареста людей до того, как они начнут действовать. Компания Intrado из Колорадо продает полиции услугу, которая мгновенно сканирует юридические, деловые записи и записи в социальных сетях в поисках информации о лицах и обстоятельствах, с которыми могут столкнуться сотрудники полиции, отвечая на вызов службы экстренной помощи по определенному адресу. ИИ также может предсказывать попытки самоубийства и, возможно, может использоваться для вмешательства.

Экономические и гуманитарные вопросы

ИИ, автоматизация и рабочие места

Некоторые утверждают, что автоматизация с использованием ИИ отличается от прошлых промышленных революций и приведет к массовой безработице среди синих и белых воротничков. Другие утверждают, что характер работы изменится, но количество рабочих мест не изменится. Некоторые аргументированные ИИ помогут работникам средней квалификации преуспеть в высококвалифицированной работе, которая сейчас не заполнена. Большинство утверждают, что экономика нуждается в улучшенных программах образования и повышения квалификации, а также в расширенных программах смены рабочих мест для людей, вытесненных новыми технологиями. Правительствам, промышленности и обществу необходимо будет создать новые программы, правила и стандарты, чтобы приспособиться к сбоям.

ИИ и экономическое неравенство

ИИ, вероятно, принесет огромную экономическую выгоду своим создателям. Это может подтолкнуть дополнительный доход к капиталовложению и привести к усилению экономического неравенства. Рост доходов и появление глобального среднего класса за последние тридцать лет коррелировали с усилением экономической и политической либерализации. Рост неравенства угрожает этим тенденциям и может способствовать ответной реакции популистов.

ИИ и препятствия для инноваций

Стандарты могут принести пользу крупным первопроходцам и задушить инновации. Стандарты также могут способствовать взаимодействию и «безопасным» системам искусственного интеллекта.

Системы ИИ с открытым исходным кодом могут задушить инновации. Например, TensorFlow очень полезен, но может создать однородную группу практиков. Или наличие этих систем может способствовать инновациям. Баланс неизвестен.

В Соединенных Штатах технологи ИИ получают огромные предложения от частного сектора после окончания колледжа. Это лишает их стимулов к работе в академических кругах, где им может быть трудно выплатить студенческие ссуды, или к стартапам, где риск и неопределенность намного выше. Популистские ограничения на иммиграцию также могут ограничивать доступность дефицитных талантов ИИ.

AI для развития

Ai-d.org - некоммерческая организация, созданная для поддержки исследований в области ИИ в целях развития (AI-D). В центре внимания текущих усилий AI-D является объединение и распространение наборов данных в поддержку исследований.

Патрик Мейер регулярно ведет блоги о дронах для гуманитарной деятельности.

AI и Закон

Международная ассоциация искусственного интеллекта и права - некоммерческая ассоциация, занимающаяся продвижением исследований и разработок в области искусственного интеллекта и права, с членами по всему миру. IAAIL организует двухгодичную конференцию (ICAIL), которая предоставляет форум для презентации и обсуждения последних результатов исследований и практических приложений и стимулирует междисциплинарное и международное сотрудничество.

Международная ассоциация юристов выпустила отчет с подробным описанием разрыва между действующим законодательством и новыми законами, необходимыми для новых рабочих мест. Отчет IBI Global Employment Institute оценивает закон на разных этапах цикла автоматизации - от стадии разработки, когда начинается компьютеризация отрасли, до того, что сотрудники могут испытать, когда ИИ становится все более распространенным, до вопросов ответственности, когда что-то идет не так.

Из-за процесса

Машинная предвзятость при вынесении приговоров : COMPAS, инструмент для вынесения приговоров искусственному интеллекту, постоянно оценивает чернокожих как более высокий риск повторного совершения преступления, чем для белых, совершивших аналогичные или более серьезные преступления.

Юридическая ответственность

Разумная предсказуемость - ключевой фактор небрежности. Как определить, были ли действия ИИ разумно предсказуемыми, когда системы машинного обучения обучаются и адаптируются, и могут ли они дать результаты, которых разработчик не ожидал? Также может быть несколько ИИ, взаимодействующих неожиданным образом.

Парламент ЕС попросил ЕК предложить правила ответственности в отношении ИИ и робототехники и рекомендовал кодекс этического поведения.

AI, правительство и регулирование

Растет ощущение того, что некоторые правительства не в состоянии справиться с сегодняшними проблемами. ИИ может помочь правительствам справиться с растущими трудностями анализа и принятия решений во все более сложном мире. Или достижения ИИ в частном секторе могут выявить недостатки правительства, если оно не сможет адаптироваться к будущему.

Белый дом подготовил отчет Подготовка к будущему искусственного интеллекта и сопутствующий ему Национальный стратегический план исследований и развития искусственного интеллекта в 2016 году. Белый дом также стал одним из организаторов публичных семинаров по Области политики в области ИИ и запрашиваемая информация от общественности по вопросам ИИ.

Япония настаивала на введении основных правил в отношении ИИ на встречах G7 в 2016 году.

Южная Корея разрабатывает хартию этики роботов.

ИИ, взаимодействие людей, общество и человечество

Вместо программирования людьми программного обеспечения боты с ИИ могут формировать культуру и тем самым программировать людей, манипулируя нашим информационным пространством.

ИИ и эффективные вычисления

Машины становятся эффективными как в изображении реалистичных человеческих эмоций, так и в обнаружении человеческих эмоций в видео, тексте и речи. Это могло бы улучшить взаимодействие человека с компьютером, но также могло бы использоваться для манипулирования людьми. Также некоторым людям могут не нравиться эмоциональные машины. Внедрение морали и ценностей в системы ИИ будет иметь решающее значение, если мы хотим, чтобы их решения отражали наши законы, политику и добродетели.

Душевные машины работают над очеловечиванием интерфейса между человеком и машинами.

Affectiva: возглавляет усилия по развитию технологий, способствующих развитию эмоций.

AI и любовь

Доктор Джулия Моссбридж, Лаборатория инноваций IONS, возглавляет работу по разработке искусственного интеллекта с любовью и заботой по отношению к людям.

Поиски Мэтта Макмаллана секс-роботов с искусственным интеллектом.
Мэтт Чессен исследует, будут ли партнеры ИИ предпочтительнее людей и будут ли они способствовать вымиранию человечества.

ИИ и образование

Проект Вычислительная техника: человеческий опыт Грэди Буча и других о том, как вычисления изменили человечество.

Взаимодействие человека с компьютером:

ArticuLab, Институт взаимодействия человека и компьютера при Университете Карнеги-Меллона: фокусируется на взаимодействии человека и компьютера, включая искусственный интеллект.

ИИ и человеческое достоинство

Беспокойство заключается в том, что люди могут просто выполнять приказы своей системы искусственного интеллекта, которая управляет предприятием. Как сохранить человеческое достоинство, чтобы люди и ИИ работали вместе, а работники не были просто приспешниками ИИ, которые принимают чрезвычайно сложные бизнес-решения?

Какова этика найма людей на работу специально для того, чтобы ИИ мог научиться выполнять работу и заменить их? Защищены ли эти молчаливые рабочие? Используют ли американские компании справедливую трудовую политику при аутсорсинге этих услуг из-за границы?

Люди могут плохо относиться к своим человекоподобным ИИ. Как это негативное поведение проявляется во взаимодействии с людьми? И каковы последствия, когда человек связан с системой ИИ и должен столкнуться со скрытым насилием? Является ли злоупотребление системами ИИ маркером проблем с психическим здоровьем или потенциальным злоупотреблением где-либо еще?

Некоторые принципы: относитесь к ботам, как к человеку. На другом конце бота может быть человек, который следит за его поведением. Ваша речь также может обучать бота взаимодействовать с другими людьми. (См. Тай, чтобы узнать, как это может пойти не так).

Каковы последствия, когда виртуальные агенты ИИ еще больше защищают нас от взаимодействия с другими людьми?

Права на системы искусственного интеллекта

Вопрос в том, заслуживают ли разумные или похожие на человека системы ИИ каких-либо прав. Скорее спекулятивно, поскольку ИИ еще далеко от этого уровня возможностей.

ИИ меняют то, что значит быть человеком

Илон Маск говорит, что люди должны стать киборгами, чтобы оставаться актуальными.

Анупам Растоги утверждает, что то, что мы называем ИИ, на самом деле является увеличением интеллекта для людей, а настоящий ИИ еще в будущем.

ИИ и зависимость

Искусственный интеллект может сделать такие вещи, как социальные сети и видеоигры, более захватывающими благодаря психометрической персонализации и машинному обучению.

События политики ИИ

2016

Обзор Мастерских Белого дома США по искусственному интеллекту:

22 февраля 2016 г. Сан-Франциско, Калифорния Семинар по этике онлайн-экспериментов. Таким образом, этот семинар направлен на объединение исследователей из сообщества компьютерных наук и за его пределами для совместного выявления и обсуждения этических проблем, возникающих при проведении экспериментов определенного типа. это обычная часть работы производственной онлайн-службы.

24 мая 2016 г .: Правовые и управленческие последствия искусственного интеллекта в Сиэтле, штат Вашингтон.

7 июня 2016 года: Искусственный интеллект на благо общества в Вашингтоне, округ Колумбия.

28 июня 2016 г .: Безопасность и управление искусственным интеллектом в Питтсбурге, штат Пенсильвания.

7 июля: Социально-экономические последствия применения искусственного интеллекта в ближайшем будущем в Нью-Йорке.

CCITT / ITU-T« Беседы по поводу 60-летия искусственного интеллекта (AI)» ВАСЭ-16 МСЭ (26 октября 2016 г. - Хаммамет, Тунис)

« AI: наконец-то наступило будущее ?» ITU Telecom World 2016 (16 сентября 2016 г. - Бангкок, Таиланд)

« Искусственный интеллект для устойчивого будущего: дружелюбный товарищ или угрожающий завоеватель ?» ITU Kaleidoscope 2016 Уголок Жюля Верна (14–16 сентября 2016 г., Бангкок, Таиланд)

16–19 ноября Лаборатория прозрачности данных 2016: DTL - это межведомственное сотрудничество, направленное на создание глобального сообщества технологов, исследователей, политиков и представителей отрасли, работающих над продвижением прозрачности личных данных в Интернете посредством научных исследований и разработок.

18 ноября, Нью-Йорк, штат Нью-Йорк, 3-й семинар Справедливость, подотчетность и прозрачность в машинном обучении: FAT / ML, совместно с Data Transparency Lab 2016. Этот семинар призван объединить растущее сообщество исследователей и практиков, заинтересованных в справедливости. , подотчетность и прозрачность в машинном обучении.

19 ноября 2016 г., Школа права Нью-Йоркского университета, Семинар по прозрачности данных и алгоритмической информации (DAT’16). Семинар по данным и прозрачности алгоритмов (DAT’16) организуется как форум для ученых, отраслевых практиков, регулирующих органов и политиков, чтобы собраться вместе и обсудить вопросы, связанные с возрастающей ролью алгоритмов больших данных в нашем обществе.

Princeton Envision Conference: студенческая конференция, на которой собираются нынешние и будущие лидеры в использовании технологий для светлого будущего; подраздел по AI. 2–4 декабря 2016 г. Принстонский университет

8 декабря 2016 г. Симпозиум NIPS Машинное обучение и закон, Барселона, Испания: на этом симпозиуме будут рассмотрены ключевые темы конфиденциальности, прозрачности, подотчетности и справедливости, особенно в том, что касается правового режима и регулирования алгоритмов и данных. Наши основные цели: (i) информировать наше сообщество о важном действующем и действующем законодательстве (например, Общем регламенте ЕС о защите данных); и (ii) объединить юридическое и техническое сообщества, чтобы помочь сформировать лучшую политику в будущем.

12 декабря 2016 г. - Барселона 1-й Международный семинар IEEE ICDM по конфиденциальности и дискриминации в интеллектуальном анализе данных.

2017

5–8 января, Asilomar CA Beneficial AI: конференция, организованная Институтом будущего жизни. Конференция 2017 года представила Принципы Асиломара, начиная от исследовательских стратегий и заканчивая правами на данные и будущими проблемами, включая потенциальный сверхразум. (Сводная версия)

19–20 января 2017 г., Филадельфия Справедливость для цифровой инфраструктуры на UPenn.

4 февраля 2017 г., 3-й международный семинар ИИ, этика и общество Сан-Франциско, США: В центре внимания этого семинара - этические и социальные последствия построения систем ИИ.

19–20 февраля, Оксфорд. Плохие актеры и семинар по искусственному интеллекту: FHI провела семинар по потенциальным рискам, связанным с злонамеренным использованием новых технологий в машинном обучении и искусственном интеллекте.

4 апреля Валенсия, Испания Семинар по этике в НЛП на EACL 2017 посвящен вопросам этики, связанным с обработкой естественного языка.

4 апреля, Перт Австралия, FAT / WEB: Семинар по справедливости, подотчетности и прозрачности в Интернете. Целью этого семинара на целый день является изучение и обсуждение проблем и решений с алгоритмической справедливостью, подотчетностью и прозрачностью моделей в контекст веб-сервисов.

17–19 мая 2017 г., Феникс, Аризона Пятая ежегодная конференция по управлению новыми технологиями: право, политика и этика. Конференция будет состоять из пленарных и сессионных презентаций и дискуссий по регуляторным, управленческим, правовым, политическим, социальным и этическим аспектам новых технологий, включая (но не ограничиваясь) нанотехнологии, синтетическую биологию, редактирование генов, биотехнологию, геномику, персонализированную медицину, технологии улучшения человека, телекоммуникации, информационные технологии, технологии наблюдения, геоинженерия, нейробиология, искусственный интеллект и робототехника.

7–9 июня в Женеве AI for Good Global Summit: ITU и XPRIZE организовали мероприятие для промышленности, академических кругов и гражданского общества, которые работают вместе, чтобы оценить возможности, предоставляемые AI, гарантируя, что AI принесет пользу всему человечеству. Саммит направлен на ускорение и продвижение разработки и демократизации решений искусственного интеллекта, которые могут решать конкретные глобальные проблемы, связанные с бедностью, голодом, здоровьем, образованием, окружающей средой и другими.

Организации политики в области ИИ

Совет по будущему искусственного интеллекта и робототехники Всемирного экономического форума изучит, как разработки в области искусственного интеллекта и робототехники могут повлиять на промышленность, правительства и общество в будущем, и разработает инновационные модели управления, обеспечивающие максимальную отдачу от них и связанные с ними риски. держится под контролем.

Data & Society’s Intelligence and Autonomy Initiative разрабатывает стратегические исследования, связывающие точки между роботами, алгоритмами и автоматизацией. Наша цель - переосмыслить дебаты о росте машинного интеллекта.

AI Now Initiative: AI Now, возглавляемая Кейт Кроуфорд и Мередит Уиттакер, - это исследовательская инициатива из Нью-Йорка, работающая в разных областях, чтобы понять социальное влияние ИИ. Отчет AI Now содержит рекомендации, которые могут помочь сделать ИИ более справедливым и равноправным.

Миссия USC Центр искусственного интеллекта в обществе - проводить исследования в области искусственного интеллекта, чтобы помочь решить самые сложные социальные проблемы, с которыми сталкивается наш мир.

Центр Беркмана Кляйна для Интернета и общества в Гарвардском университете: Центр Беркмана Кляйна и Медиа-лаборатория Массачусетского технологического института будут выступать в качестве якорных академических институтов для фонда Этика управления и искусственный интеллект и разрабатывать ряд мероприятий, исследований, инструментов, и прототипы, направленные на преодоление разрыва между дисциплинами и соединение человеческих ценностей с техническими возможностями. Мы будем работать вместе, чтобы укрепить существующие и сформировать новые междисциплинарные человеческие сети и институциональное сотрудничество, а также служить платформой для сотрудничества, где заинтересованные стороны, работающие в разных дисциплинах, секторах и географических регионах, могут встречаться, взаимодействовать, учиться и обмениваться информацией.

Стэнфордское Столетнее исследование искусственного интеллекта или AI100 - это 100-летняя попытка изучить и предвидеть, как эффекты искусственного интеллекта будут влиять на все аспекты того, как люди работают, живут и играют.

MIT Media Lab, проект AI, Ethics and Governance Project будет поддерживать социологов, философов, политологов и ученых-юристов, которые проводят исследования, направленные на то, чтобы повлиять на то, как технологии искусственного интеллекта разрабатываются, внедряются, понимаются и привлекаются к ответственности.

Лаборатория социальных машин Массачусетского технологического института разрабатывает методы науки о данных, в первую очередь основанные на обработке естественного языка, сетевых науках и машинном обучении, для картирования и анализа социальных систем, а также разрабатывает инструменты, позволяющие создавать новые формы человеческих сетей для позитивных изменений.

MIT Solid (производный от данных, связанных с социальными сетями) - это предлагаемый набор соглашений и инструментов для создания децентрализованных социальных приложений, основанных на принципах связанных данных. Solid является модульным и расширяемым, и он в максимальной степени полагается на существующие стандарты и протоколы W3C.

Партнерство по ИИ: создано для изучения и формулирования передового опыта в области технологий ИИ, для расширения понимания ИИ общественностью и для использования в качестве открытой платформы для обсуждения и взаимодействия по ИИ и его влиянию на людей и общество. Партнеры включают Apple, Amazon, Facebook, Google, Microsoft, IBM, ACLU и OpenAI.

OpenAI - некоммерческая исследовательская компания по искусственному интеллекту. Их миссия - создать безопасный ИИ и обеспечить максимально широкое и равномерное распределение преимуществ ИИ; продвижение цифрового интеллекта таким образом, который, скорее всего, принесет пользу всему человечеству

Университет Вайоминга Развивающаяся лаборатория искусственного интеллекта: фокусируется на эволюции искусственного интеллекта и других биологических методов.

Миссия Института будущего жизни состоит в том, чтобы стимулировать и поддерживать исследования и инициативы по защите жизни и развитию оптимистических взглядов на будущее, включая позитивные способы для человечества следовать своим собственным курсом с учетом новых технологий и проблем. Проводит конференцию по полезному искусственному интеллекту.

Исследовательский институт машинного интеллекта - это исследовательская некоммерческая организация, изучающая математические основы разумного поведения. Наша миссия - разработать формальные инструменты для чистого проектирования и анализа систем ИИ общего назначения с целью сделать такие системы более безопасными и надежными, когда они будут разработаны.

Глобальная инициатива IEEE по этическим соображениям в области искусственного интеллекта и автономных систем: цель этой инициативы - гарантировать, что каждый технолог обучен, обучен и наделен полномочиями уделять приоритетное внимание этическим соображениям при проектировании и разработке автономных и интеллектуальных систем.

AI Now сейчас исследует социальные последствия искусственного интеллекта, чтобы обеспечить более справедливое будущее. На семинаре был подготовлен отчет, в котором обобщены многие ключевые социальные и экономические проблемы, связанные с ИИ.

Справедливость, подотчетность и прозрачность в сообществе машинного обучения.

UNICRI создает в Гааге центр искусственного интеллекта и робототехники во главе с Ираклием Беридзе.

Институт искусственного интеллекта Аллена: AI2, основанный Полом Алленом и возглавляемый доктором Ореном Эциони, проводит масштабные исследования и разработки для решения ключевых проблем в области искусственного интеллекта.

В Институте будущего человечества находится Центр стратегических исследований искусственного интеллекта, совместная инициатива Оксфорда и Кембриджа, разрабатывающая стратегии и инструменты, обеспечивающие безопасность и полезность искусственного интеллекта (ИИ).

Кембриджский Центр изучения экзистенциального риска: цели заключаются в том, чтобы значительно улучшить состояние исследований протокола безопасности ИИ и рисков, а также информировать лидеров отрасли и лиц, определяющих политику, о соответствующих стратегиях и правилах, позволяющих использовать преимущества достижений ИИ. благополучно реализовано.

Группа по этике данных Института Алана Тьюринга Группа будет работать в сотрудничестве с более широким сообществом специалистов по науке о данных, будет поддерживать общественный диалог по актуальным темам, и в этом году будут проводиться открытые призывы к участию в семинарах, а также в публичных мероприятиях.

Leverhulme Center for the Future of Intelligence: Наша миссия в Leverhulme Center for the Future of Intelligence (CFI) состоит в создании нового междисциплинарного сообщества исследователей с прочными связями с технологами и политическим миром и четкой практической целью: работать вместе, чтобы мы, люди, максимально использовали возможности искусственного интеллекта по мере его развития в ближайшие десятилетия.

AI Austin: Поощрение практичного и ответственного проектирования, разработки и использования искусственного интеллекта для расширения возможностей и минимизации вреда как в местном, так и в глобальном сообществе.

Глобальная инициатива IEEE по этическим соображениям в области искусственного интеллекта и автономных систем: инкубационное пространство для новых стандартов и решений, сертификатов и кодексов поведения, а также достижения консенсуса в отношении этичного внедрения интеллектуальных технологий.

Центр ИИ, совместимого с людьми Калифорнийского университета в Беркли: цель CHAI - разработать концептуальные и технические средства, позволяющие переориентировать общий упор исследований в области ИИ на доказуемо полезные системы.

Отраслевые организации

Ассоциация развития искусственного интеллекта (AAAI) (ранее Американская ассоциация искусственного интеллекта) - это некоммерческое научное общество, занимающееся продвижением научного понимания механизмов, лежащих в основе мышления и интеллектуального поведения, и их воплощения в машинах. AAAI стремится содействовать исследованиям и ответственному использованию искусственного интеллекта.

Крупные корпоративные исследователи

Исследователи искусственного интеллекта Facebook (FAIR) стремятся понять и разработать системы с интеллектом человеческого уровня, решая долгосрочные академические проблемы, связанные с ИИ.

Google: Tensor Flow: библиотека программного обеспечения с открытым исходным кодом для Machine Intelligence. Deep Mind: перед нами стоит научная миссия - раздвинуть границы искусственного интеллекта, разрабатывая программы, которые могут научиться решать любую сложную проблему без необходимости учиться тому, как это делать.

IBM: Технологии Когнитивные вычисления и IBM Watson: продукты и API-интерфейсы Watson могут анализировать все формы данных, выявлять критически важные для бизнеса идеи и привносить в вашу организацию возможности когнитивных вычислений.

Microsoft: Исследовательская группа ИИ и основное внимание уделяется технологиям и фреймворкам чат-ботов. CNTK - это фреймворк глубокого обучения с открытым исходным кодом.

Amazon: сервисы Amazon AI обеспечивают понимание естественного языка (NLU), автоматическое распознавание речи (ASR), визуальный поиск и распознавание изображений, преобразование текста в речь (TTS) и машинное обучение (ML) в пределах досягаемости каждого разработчика. .

Новостные сайты AI

Scout.ai сочетает в себе научную фантастику и журналистику, чтобы доставлять вам частые онлайн-рассылки о будущем технологий.

Kurzwilai.net посвящен искусственному интеллекту и новым технологиям.

Import AI курирует Джек Кларк (теперь с OpenAI) и представляет собой еженедельный информационный бюллетень о развитии технологий и политики в области ИИ.

Закон и искусственный интеллект: блог, посвященный изучению закона искусственного интеллекта, искусственного интеллекта в праве и политики в области искусственного интеллекта.

Singularity Hub AI Archives: новости о технологиях и политике

Люди, занимающиеся политикой искусственного интеллекта

Обычно

Эрик Хорвиц, ветеран искусственного интеллекта, бывший президент Ассоциации по развитию искусственного интеллекта

Расс Альтман, профессор биоинженерии и информатики в Стэнфорде

Барбара Гросс, профессор естественных наук Хиггинса Гарвардского университета и эксперт по многоагентным системам совместной работы;

Дейдре К. Маллиган, юриста и профессора Информационной школы Калифорнийского университета в Беркли, которая сотрудничает с технологами для продвижения конфиденциальности и других демократических ценностей с помощью технического дизайна и политики;

Йоав Шохам, профессор компьютерных наук в Стэнфорде, который стремится внедрить здравый смысл в ИИ;

Том Митчелл, профессор Университета Э. Фредкина и заведующий кафедрой машинного обучения в Университете Карнеги-Меллона, чьи исследования включают изучение того, как компьютеры могут научиться читать Интернет;

Алан Макворт, профессор компьютерных наук Университета Британской Колумбии и кафедры исследований искусственного интеллекта Канады, построивший первого в мире робота для игры в футбол.

Тензин Приядарши, директор, Инициатива по этике, MIT Media Lab

Ияд Рахван, Масштабируемое сотрудничество, этика, MIT Media Lab

Кейт Кроуфорд (Microsoft Research и Нью-Йоркский университет)

Мередит Уиттакер (Google Open Research)

Мадлен Клэр Элиш (Колумбийский университет)

Солон Барокас (Microsoft Research)

Аарон Пласек (Колумбийский университет)

Кадиджа Паромщик (Новая школа)

Фил Ховард, Politbots.org, Оксфорд:

Сэм Вулли, Politbots.org, Вашингтонский университет, Jigsaw:

Натан Бенаич (@NathanBenaich) - технологический инвестор с опытом работы в области искусственного интеллекта, ранее был партнером Playfair Capital и научным сотрудником Кембриджского университета. Организует Лондонскую встречу по ИИ и ежегодный Саммит по исследованиям и прикладному искусственному интеллекту.

Джоанна Брайсон (@ j2bryson) - специалист по информатике из Университета Бата и филиал Принстонского центра информационных технологий. У нее есть опыт преобразования интеллектуальных систем в рабочие системы искусственного интеллекта, помогающие понять естественный интеллект.

Алекс Шампандард (@alexjc) - старший программист игрового ИИ и основатель Creative.AI, проекта, который исследует, как ИИ может помочь в выполнении творческих задач. Также руководит конференцией nucl.ai, которая помогает творческим отраслям использовать ИИ.

Близнецы CyberCode (@cybercodetwins) - выпускники #mitCCbc, #AngelHackHACKcelerator. Америка и Пенелопа Лопес известны как «близнецы CyberCode». Миссия сестер-близнецов - сделать сообщества более безопасными с помощью носимых технологий и мобильных приложений. Следите за их путешествием в Twitter и на их канале Youtube.

Орен Этциони (@etzioni) - генеральный директор Института искусственного интеллекта Аллена, который занимается исследованиями и разработкой искусственного интеллекта на благо человечества. Также является профессором факультета компьютерных наук Вашингтонского университета и партнером инвестиционной компании Madrona.

Джон К. Хэвенс (@johnchavens) - исполнительный директор Глобальной инициативы IEEE по этическим соображениям в области искусственного интеллекта и автономных систем. Он также является автором книги Heartificial Intelligence о превращении человечества в машины.

Патрик Лин: директор группы по этике и развивающимся наукам Калифорнийского политехнического государственного университета

Этика

Паула Боддингтон, Оксфорд

Майлз Брандейдж, Оксфорд

Джоанна Брайсон, Бат

Джуди Голдсмит, Кентукки

Бен Кейперс, Мичиган

Тоби Уолш (председатель), UNSW Australia | Data61 | TU Berlin

Этика данных

Проф. Лучано Флориди, профессор философии и этики информации, Оксфордский институт Интернета, Оксфордский университет

Д-р Джонатан Кейв, член экономиста, Комитет по регуляторной политике Великобритании; Старший научный сотрудник Уорикского университета

Д-р Дженнифер С. Дэвис, факультет права и Центр интеллектуальной собственности и информационного права, Кембриджский университет

Доктор Филлис Иллари, старший преподаватель философии, Департамент исследований науки и технологий, UCL

Чарльз Рааб, профессор политики и международных отношений, Школа социальных и политических наук, Эдинбургский университет

Профессор Буркхард Шафер, профессор вычислительной теории права, юридический факультет Эдинбургского университета

ML и право

Солон Барокас Microsoft Research

Техасский университет Кей Ферт-Баттерфилд, Lucid AI. Первая публичная консультативная группа по этике ИИ, профессор, автор. Закон и этика искусственного интеллекта. ИИ и социальная справедливость

Кришна П. Гуммади Институт программных систем Макса Планка

Сара Хаджиан Eurecat-Tech Center Каталония

Mireille Hildebrandt Vrije Universiteit Brussel

Университет Оттавы Яна Керра

Университет Нила Лоуренса в Шеффилде

Дейдре Маллиган Калифорнийский университет в Беркли

Пенсильванский университет Аарона Рота

Национальный университет Сингапура Яира Зика

— —

Об авторе:

Я работаю сотрудником дипломатической службы Государственного департамента по стипендии в Университете Джорджа Вашингтона, где изучаю искусственный интеллект. Любые мнения в этом документе были собраны из других источников или являются личными взглядами и не отражают мнения правительства США, Государственного департамента или какой-либо другой организации.