Новый отчет европейского проекта Sherpa, созданный с помощью F-Secure, иллюстрирует методы атак, используемые для искажения данных и запутывания алгоритмов интеллектуальных систем
, автор ARTURO DI CORINTO

МУЖЧИНЫ атакуют системы искусственного интеллекта, а не наоборот, как можно было бы ожидать от фантастических фильмов. Но что делать? Чтобы манипулировать результатами поисковых систем, изменять алгоритмы социальных сетей, рейтинг и репутацию веб-сайтов, нарушать полеты дронов или обманывать беспилотные автомобили. Итак, вопреки нашим ожиданиям, злонамеренное использование инструментов искусственного интеллекта не ограничилось созданием изощренных кампаний по дезинформации.

Тревога исходит из отчета проекта European Sherpa, посвященного правам человека и искусственному интеллекту, в котором подчеркивается, как отдельные преступники и организованные хакеры нашли новую цель в атаке на «умные» системы, предлагающие покупки на Amazon или в Apple Store. , которые определяют рейтинг ресторанов на TripAdvisor или предсказывают вероятность криминальных событий и потребление энергии умным городом.

Мы должны были этого ожидать. Интеллектуальные информационные системы достигли такого уровня развития, который будет оказывать все более существенное влияние на людей и общество. Подумайте об огромном количестве виртуальных помощников, таких как Alexa от Amazon, функции автозаполнения Google, алгоритмы AI, используемые в Facebook и Youtube для «персонализации» нашего социального опыта. Однако программное обеспечение, которое прогнозирует «социальные риски» благодаря своеобразному сочетанию систем искусственного интеллекта, основанных на вычислительном машинном обучении и методах глубокого обучения, и больших данных, применяемых в сфере оказания услуг, в медицине, в страховании и финансах .

Речь идет не только о методах уклонения, чтобы обмануть защиту компьютерных сетей и систем, но и о загрязнении данных, на которых интеллектуальные системы основывают свои выходные данные, или о проведении изощренных электронных мошенничеств даже по телефону. Уже сегодня действительно возможно использовать модели генерации естественного языка для создания целевых фишинговых сообщений (мошенничество по электронной почте, с помощью которого осуществляется несанкционированный доступ к конфиденциальным данным), оптимизированных для определенных групп или отдельных лиц.
Манипулирование алгоритмами
Таким образом, основное внимание в этом исследовании уделяется тому, как плохие парни могут злоупотреблять искусственным интеллектом, машинным обучением и интеллектуальными информационными системами. Исследователи выявили множество потенциально опасных атак на общество, начиная от манипулирования алгоритмами искусственного интеллекта в умных городах, где они используются для оптимизации транспорта, потребления электроэнергии и цикла отходов, до случаев, когда алгоритмическое управление может отдавать приоритет скрытым интересам. наносить ущерб компаниям, манипулируя данными и информацией в Интернете, или приносить пользу правительственным партиям, влияя на политические дебаты с помощью фальшивых новостей.

И хотя мы все немного обеспокоены приходом Сингулярности, моментом, когда, по мнению таких ученых, как Рэй Курцвейл, искусственный интеллект сравняется с человеческим, мы не осознаем, что основные методы, которые сейчас лишь имитируют некоторые когнитивные функции человека, используемые во вредоносных целях каждый день, способны подорвать все те системы, которые мы используем против компьютерных вторжений, медицинских диагнозов, уровней водоснабжения, вплоть до банковских систем по борьбе с мошенничеством.

Энди Патель, исследователь центра передового опыта в области искусственного интеллекта F-Secure, партнера проекта Sherpa, поясняет: «Люди ошибочно отождествляют искусственный интеллект с человеческим, и я думаю, именно поэтому они связывают угрозу Иа с роботами-убийцами. и неуправляемые компьютеры. Но человеческие атаки на ИА происходят постоянно. «
Фейковые аккаунты и репутация
Sybil — один из таких: атака основана на создании фейковых аккаунтов с целью манипулирования данными, которые ИА использует для принятия решений. Популярным примером этой атаки является манипулирование рейтингами поисковых систем или системами репутации для продвижения или «скрытия» определенного платного контента или нет. Однако эти атаки также могут использоваться для социальной инженерии отдельных лиц в сценариях атак, нацеленных на лиц, принимающих решения, руководителей компаний и высокопоставленных государственных чиновников.

В отчете говорится, что методы искусственного интеллекта используются для создания чрезвычайно реалистичного письменного, аудио и визуального контента. Это тот случай дипфейковых видео, полностью фейковых клипов, благодаря которым можно, начиная с телесъемки, имитировать рот оратора, чтобы заставить его сказать то, о чем он и мечтать не мог. Какая польза от этого? Например, чтобы манипулировать доказательствами, создать дипломатический кризис, обмануть конкурента.

Злоумышленное использование искусственного интеллекта уже среди нас, и нам не нужно представлять себе убийцу, подобного убийце из фильма «Терминатор». Вот почему исследователи предлагают немедленно разработать безопасные интеллектуальные системы.

Эта история была первоначально опубликована на итальянском языке La Repubblica: https://www.repubblica.it/tecnologia/sicurezza/2019/07/18/news/perche_gli_umani_attaccano_i_sistemi_basati_sull_intelligenza_artificiale-231461578/