ИИ на страже безопасности: смогут ли нейросети бороться с хакерами

Представьте мир, где искусственный интеллект не просто защищает данные, а предугадывает атаки хакеров, как герой из блокбастера. Нейросети уже учатся выявлять угрозы до того, как злоумышленники нажмут Enter. Но что, если киберпреступники тоже вооружаются ИИ? Кто победит в этой схватке алгоритмов — защитники или взломщики? Объясняет Илья Павлюк.
Юлия Мискевич
Юлия Мискевич
Редакция
ИИ на страже безопасности: смогут ли нейросети бороться с хакерами
Freepik

Искусственный интеллект активно используется для защиты от кибератак, хотя его возможности пока ограничены. Об этом рассказал руководитель группы ИБ-инженеров Лиги Цифровой Экономики Илья Павлюк в разговоре с «ТехИнсайдером».

ИльяПавлюк
Руководитель группы ИБ-инженеров
Лига Цифровой Экономики

«Как правило, нейросети выступают вспомогательным инструментом. Можно выделить ряд задач, с которыми ИИ успешно справляется уже сейчас: выявляет утечки конфиденциальных данных, автоматически реагирует в случае киберугрозы, обнаруживает аномалии в сетевом поведении (DDoS-атаки, активность ботнетов или скрытый C2-трафик) и вредоносные паттерны непосредственно в коде файлов (например, в PE-файлах Windows)», — отметил он.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

По словам специалиста, в России есть успешные кейсы внедрения ИИ. Например, Kaspersky использует машинное обучение для выявления неизвестных угроз, Solar AI SOC от Ростелекома анализирует поведенческие аномалии, а Сбербанк применяет нейросети для борьбы с мошенничеством.



«Однако существуют и проблемы. Например, высокий процент ложных срабатываний (False Positive) может приводить к блокировке безопасных программ. Нейросети уязвимы к адверсариальным атакам, что позволяет злоумышленникам скрывать вредоносный код. Кроме того, высокие требования к вычислительным ресурсам не позволяют использовать нейросети на устройствах с низкой производительностью.
Не стоит забывать, что хакеры также применяют ИИ. Например, с помощью генеративных моделей (WormGPT, FraudGPT) создают убедительные фишинговые письма и адаптивные вирусы, которые трудно обнаружить»
Илья Павлюк
Илья Павлюк Руководитель группы ИБ-инженеров Лиги Цифровой Экономики

Павлюк подчеркнул, что существует еще одна проблема — недостаточное доверие к новым технологиям со стороны организаций. Многие компании, особенно в госсекторе и финансовой сфере, опасаются «черного ящика» ИИ — невозможности объяснить его решения, что критически важно для соблюдения регуляторных требований, уточнил эксперт.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Защита данных с помощью ИИ в будущем

Специалист объяснял — не стоит ожидать, что искусственный интеллект обеспечит автоматическую защиту от кибератак. Даже с развитием технологий останутся задачи, требующие участия специалиста: принятие решений в экстренных ситуациях, анализ контекста и расследование инцидентов.

По данным Positive Technologies, к 2027 году в России потребуется дополнительно 80 тысяч специалистов по кибербезопасности. Это подчеркивает важность человеческого фактора.

Рост автоматизации в сфере кибербезопасности неизбежен, особенно в направлении защиты от новейших угроз и сложных целевых атак. Через несколько лет искусственный интеллект сможет отслеживать и предотвращать до 90% инцидентов, однако в остальных случаях потребуется участие специалистов, заверил Павлюк.

«Ключевым условием станет развитие объяснимого ИИ (XAI), который сможет не только принимать решения, но и обосновывать их. Также появятся гибридные системы, где ИИ будет автоматически блокировать рутинные атаки, а SOAR-платформы и аналитики — разбирать сложные случаи»
Илья Павлюк
Илья Павлюк Руководитель группы ИБ-инженеров Лиги Цифровой Экономики

Полная автономность ИИ вряд ли будет достигнута из-за юридических и этических ограничений — например, ошибочная блокировка легального трафика может нарушать законы о защите данных, заключил руководитель группы ИБ-инженеров Лиги Цифровой Экономики.