Обратная сторона ИИ: как нейросети работают в руках кибермошенников

Нейросети созданы для автоматизации привычных процессов и помощи человеку, однако по мере развития искусственного интеллекта (ИИ) и машинного обучения стал повышаться и уровень киберпреступности. О рисках ИИ и о том, как защитить себя от злоумышленников, рассказала Оксана Ульянинкова, руководитель перспективных проектов в области информационной безопасности IT кластера Фонда «Сколково».
Обратная сторона ИИ: как нейросети работают в руках кибермошенников
Freepik

В 2021 году потери экономики от действий киберпреступников только в России составили около 6 трлн рублей, причем использование нейросетей значительно расширило возможности хакеров. Например, в прошлом году они распространили deepfake-видео основателя компании Dbrain Дмитрия Мацкевича с рекламой о том, как легко и быстро заработать. А в ОАЭ кибермошенники смогли украсть у банка 35 млн долларов, благодаря имитации голоса его главы с помощью продвинутого искусственного интеллекта.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Дипфейки

Слово deepfake объединяет два понятия: «глубокое обучение» (deep learning) и «подделка» (fake). Это фальшивый аудио- и видеоконтент, созданный с помощью нейросетей, практически неотличимый от подлинного. Для разработки deepfake используется генеративно-состязательная сеть (GAN), которая включает две системы: генератор, создающий изображения, и дискриминатор, который их критикует. Сеть анализирует массив данных медиаконтента и самообучается.

Дипфейки несут угрозу не только для компаний и финансовых организаций, но и для репутации публичных людей, которые рискуют стать жертвами шантажа и ложных обвинений. Поэтому подобный материал регулируется на государственном уровне: например, в Китае публикация фейковой информации с использованием дипфейков является уголовным преступлением.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Фишинг

Благодаря технологическим возможностям ИИ фишинг становится более изощренным. Теперь мошенники не просто отправляют одинаковую для всех пользователей ссылку на вредоносное ПО: они рассылают цепочку персонализированных обращений, соответствующих портрету каждого человека и сформированных нейросетью на основе данных, собранных в том числе из социальных сетей.

За год количество фишинговых атак в России удвоилось, причем в 2022 году широкое распространение получили схемы таргетированного фишинга c использованием популярных брендов, выгодных предложений на их покупку в интернет-магазинах, а также розыгрышей призов от имени известных компаний.

Атаки на системы

Мошенники используют ИИ, чтобы становиться невидимками в информационном поле. Машинное обучение дает преимущество: позволяет адаптировать техники к системам безопасности и находить новые пути обхода инструментов защиты инфраструктуры. Хакеры научились имитировать компоненты ИТ-систем и скрывать вредоносные коды в официальных приложениях. Готовить атаки стало проще, а вероятность успеха только растет.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Обход антивирусов и спам-фильтров

Нейросети умеют создавать сообщения для обхода спам-фильтров, которые практически невозможно отличить от написанных человеком. Киберпреступники научились обучать модель ИИ, чтобы скрыться от сервисов автораспознавания CAPTCHA. На подпольных киберфорумах представлены инструменты для взлома паролей и капчи на базе нейросети, например, XEvil и PWnagotchi.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Как нейросети помогают кибербезопасности

Как и любой другой технологический инструмент, в неправильных руках они становятся угрозой. Поэтому перед компаниями стоит вопрос, как обезопасить себя и пользователей. Директор по развитию направления кибербезопасности EdgeЦентр Артем Избаенков отмечает, что ИИ используется в основном для благих целей.

«Это вечный вопрос специалистов в области информационной безопасности: мы должны быть на шаг впереди, чтобы злоумышленники не могли нас обойти. Сейчас выигрывает "светлая сторона" нейросетей — благодаря доступу к Big Data и машинному обучению, наличию специалистов и финансовых ресурсов. На практике ИИ применяется в большей степени во благо, ведь далеко не все хотят быть на стороне киберпреступников», — комментирует Артем Избаенков. Компания-резидент «Сколково» EdgeЦентр разрабатывает системы кибербезопасности с применением нейросетей, получая от Фонда поддержку для развития бизнеса и привлечения новых клиентов.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Обнаружение киберугроз

ИИ помогает определять разновидности атак и принимать целесообразные решения о защите. Алгоритмы машинного обучения постоянно изучают среду и адаптируются к новым угрозам, чтобы своевременно выявлять аномалии. К примеру, DDoS-атаки делятся на три вида: хакерские действия на переполнение канала, атаки на сетевое оборудование и на приложения. Разработка EdgeЦентра – щит для специалистов информационной безопасности. Во время самых сложных атак система анализирует 52 параметра поведения пользователей, на основе которых определяет тип киберпреступления и вырабатывает решение.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Кроме того, нейросети помогают с предиктивной аналитикой: определяют возможные варианты угроз на основе данных о предыдущих действиях злоумышленников.

Анализ поведения пользователей

ИИ-решения также умеют отслеживать и анализировать действия пользователей в режиме реального времени. В случае обнаружения нетипичных ситуаций они срабатывают: применяют один из сценариев защиты. Алгоритмы учитывают такую информацию, как географическое положение, рабочие часы сотрудников, идентификаторы устройств и многие другие.

«Библиотека для веб- и мобильных приложений собирает информацию о паттернах поведения пользователей: система формирует поведенческий профиль, на основе которого определяет аномалии, включая вход с незнакомых устройств. Для анализа транзакционных и сессионных данных используется машинное обучение. При этом технологию применяют в основном крупные компании, обладающие большим объемом пользовательской информации, или облачные сервисы. В случае нашей платформы обучение происходит на разных потоках данных, таких как сведения о транзакционном мошенничестве и капча», — рассказывает Сергей Вельц, руководитель отдела по работе с партнерами компании «Кибертроника», которая разрабатывает решения для защиты от рисков в области электронной коммерции. Платформа охватывает более 10 млн устройств в России, в основном в сферах банкинга и e-commerce. «Кибертроника» — резидент «Сколково», получивший грантовую поддержку Фонда.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Обнаружение фрода

Нейросети могут защитить и от распространенного вида мошенничества, жертвами которого часто становятся клиенты банков. В России создали мобильное приложение на основе ИИ, который в начале телефонного разговора распознает злоумышленника на другом конце провода и предупреждает об этом пользователя — детектирование происходит примерно на 20-й секунде. Создатели программы ожидают, что ее уровень эффективности составит 90%.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Перспективы использования ИИ в кибербезопасности

С ростом применения искусственного интеллекта и машинного обучения в сфере киберпреступности увеличивается потребность в правовом урегулировании деятельности компаний и пользователей. Россия уже становится лидером по количеству правовых документов в области ИИ. Они предусматривают как акты soft law, обязательные для исполнения с точки зрения морали и репутации, так и полноценное регулирование, когда при нарушении норм наступает юридическая ответственность. С одной стороны, это может замедлить процесс развития технологии, а с другой — позволит более обдуманно использовать потенциал искусственного интеллекта.

РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ
РЕКЛАМА – ПРОДОЛЖЕНИЕ НИЖЕ

Сфера кибербезопасности — одна из самых перспективных для использования ИИ и машинного обучения. По данным «Лаборатории Касперского», вложения в это направление входят в тройку основных приоритетов для 51% крупных российских компаний. Бизнес должен быстро внедрять инновации в этой сфере, чтобы защититься от новых киберугроз. Поскольку хакеры уже применяют ИИ в своей работе для обхода систем защиты – например, в виде ботов, которые умеют проходить CAPTCHA-проверки – нужно быть на шаг впереди. Так, уже сейчас модели ML успешно применяются для противостояния хакерам – например, для распознавания сложных атак и автоматизации реагирования на инциденты. Таким образом, у продуктов ИИ огромный потенциал на рынке кибербезопасности, поскольку компании нуждаются в новых актуальных решениях для защиты.