Цифровой век — палка о двух концах. По мере развития технологий растет и сложность угроз, с которыми мы сталкиваемся. Кибербезопасность, когда-то сфера простого подбора паролей и элементарной защиты от вирусов, превратилась в многогранную дисциплину, имеющую дело с изощренными кибератаками и утечками данных. Одним из важнейших инструментов, появляющихся в борьбе с такими угрозами, является искусственный интеллект (ИИ).

Растущее значение ИИ в кибербезопасности

Киберугрозы постоянно развиваются, их количество растет, и они становятся все более изощренными. Традиционные методы кибербезопасности, такие как брандмауэры и обнаружение вредоносных программ на основе сигнатур, с трудом успевают за темпами. Именно здесь вступает в действие ИИ. Например, способность ИИ обрабатывать огромные объемы данных и выявлять шаблоны может сделать его бесценным при обнаружении распределенных атак типа «отказ в обслуживании» (DDoS), которые могут загружать серверы трафиком и нарушать работу служб.

Кибербезопасность с усиленным ИИ работает на двух уровнях: прогнозирование и предотвращение. Алгоритмы прогнозирования, подобные тем, которые используются фирмами по кибербезопасности Darktrace и Cylance, анализируют данные о прошлых кибератаках, чтобы предсказать, где могут возникнуть будущие угрозы. Что касается предотвращения, системы ИИ могут выявлять и нейтрализовывать угрозы до того, как они нанесут значительный ущерб, как в случае упреждающего обнаружения угроз Deep Instinct на основе глубокого обучения.

Обратная сторона: ИИ как киберугроза

Хотя ИИ может быть невероятно мощным инструментом кибербезопасности, важно понимать, что его также можно использовать в качестве оружия. Кибер-злоумышленники все чаще используют ИИ для организации более изощренных и разрушительных атак. Например, злоумышленник может использовать алгоритмы машинного обучения для автоматизации обнаружения уязвимостей системы или для создания более убедительных фишинговых писем, повышающих шансы обмануть ничего не подозревающих пользователей.

Эта двойная природа ИИ представляет собой новый набор проблем. Это гонка между использованием ИИ для защиты наших цифровых активов и инфраструктуры и неправомерным использованием ИИ для организации сложных кибератак.

Будущее ИИ в кибербезопасности

Несмотря на эти проблемы, потенциал ИИ в кибербезопасности огромен. Например, при обнаружении угроз и реагировании на них машинное обучение может помочь выявить скрытые угрозы, скрытые в сети, подобно тому, как разработанная MIT система искусственного интеллекта AI2 сочетает в себе интуицию человека-аналитика с алгоритмами машинного обучения для обнаружения 85% атак (Veeramachaneni, K. и др., 2016).

ИИ также может сыграть решающую роль в автоматизации рутинных задач кибербезопасности. Например, инструменты анализа поведения пользователей на основе ИИ могут автоматизировать анализ поведения пользователей для обнаружения аномалий, которые могут указывать на угрозу, освобождая аналитиков-людей для сосредоточения внимания на более сложных проблемах.

Тем не менее, необходимо учитывать этические последствия использования ИИ в этом контексте. Поскольку мы делегируем все больше решений ИИ, мы должны учитывать риски ложных срабатываний и последствия автоматизированных действий. Более того, как и в случае со всеми приложениями ИИ, необходимо решать вопросы прозрачности и подотчетности.

Несмотря на то, что предстоит проделать большую работу, ИИ представляет собой новый многообещающий рубеж в наших постоянных усилиях по обеспечению безопасности нашего цифрового мира.

Ресурсы для дальнейшего чтения:

  1. Искусственный интеллект — революция еще не произошла Майкла Джордана
  2. Этика кибербезопасности Маркуса Кристена, Берта Гордейна, Мишель Лои

Ссылка

Верамачанени, К., и др. (2016). AI2: Обучаем машину больших данных защищаться. В материалах 2-й Международной конференции IEEE 2016 г. по безопасности больших данных в облаке (BigDataSecurity), Международной конференции IEEE по высокопроизводительным и интеллектуальным вычислениям (HPSC) и Международной конференции IEEE по интеллектуальным данным и безопасности (IDS), 49–54. IEEE.