23 октября 2017 г.

Рустэм Хайретдинов

Искусственный интеллект и связанные с ним термины машинное обучение и нейросети сегодня активно используют для продвижения нового поколения информационных систем. Термины «самообучающийся», «интеллектуальный» стали маркетинговыми «мемами», как когда-то слово smart («умный»), вспомните — смартфон, умные часы, умный дом и т.д., поэтому ими пользуются излишне часто. «Интеллектуальный», как и «умный», — всегда дороже, чем обычный, поэтому важно отличать, где это слово означает технологии, создающие принципиально новое качество, а где только обёртка и маркетинг. Особенно это важно в информационной безопасности, где часто ошибка — это прямой ущерб.

Специфика информационной безопасности, в отличие от остальных информационных технологий, в том, что обучение на старых данных не эффективно. Если дело касается распознавания лиц, планирования товарных запасов или машинного перевода текстов — то обучение на старых паттернах — основа успеха таких алгоритмов машинного обучения. Чем больше правильно распознанных лиц, правильно переведённых текстов, правильно спланированных запасов — тем лучше алгоритмы будут работать в будущем — объект изучения не будет сильно меняться и можно всё больше углубляться в детали — ведь нельзя ожидать, что у людей появится третий глаз или в языке радикально изменится морфология или синтаксис.

В информационной безопасности учиться отражать атаки, изучая уже успешно отражённые старые, неэффективно, ведь атаки, которые системы защиты умеют отражать, уже не опасны. Как только появляется новая атака, которую системы защиты не могут отразить, то эту атаку внимательно изучают специалисты и как можно быстрее выпускают «заплатку» для защищаемой системы, а также сигнатуру или правило для обнаружения этой атаки. Информационные системы обновились, системы защиты обновили базы сигнатур и всё, атака стала неопасной. В соперничестве «брони» и «снаряда» первый ход всегда за снарядом — только потом появляется эквивалентная угрозе «броня».

Именно поэтому системы машинного обучения в информационной безопасности не накапливают данные о старых атаках, это вообще не их задача — отражать известные атаки могут и более простые алгоритмы. Это системы с обратной связью, реагирующие на какое-то опасное действие, например, совпадение какой-то активности с паттерном атаки. Пока эффективнее всего работают системы, настроенные на однозначную реакцию на конкретные угрозы. Нам нужен антивирус, блокирующий проникновение вирусов на компьютер, межсетевой экран (firewall), отражающий атаки хакеров. На большую безопасность по сравнению с автоматизированными системами за счёт интеллектуальности мы согласны, а вот на меньшую — нет.

Роль искусственного интеллекта в системах защиты сегодня — предсказывать пока неизвестные атаки. Причём не просто предсказывать, а делать это с хорошей точностью, чтобы ложными срабатываниями не подорвать доверие к себе. Довольно частая реакция пользователя на ложные срабатывания — переставать реагировать на них, помните сказку, где мальчик кричал «волки!»?

Есть несколько алгоритмов, которые позволяют определять новые атаки с точностью, достаточной для того, чтобы работать в режиме блокирования атак, а не просто сообщать о подозрениях. Один из них — поиск отклонений от пользовательских профилей.

Предположим, что мы защищаем интернет-магазин, который позволяет выбрать товар, оплатить его, и заказать доставку. Обычные действия пользователя — выбирать товар, сохранять его в корзине, просматривать корзину, добавлять в неё товары и удалять их, менять количество, уходить без заказа, пытаться оплатить, указать адрес и время доставки и т.п. У каждой страницы есть пользовательский сценарий работы с ней, типичный трафик к сайту, а для каждого поля — типичный вводимый тип данных. Отклонение запросов от типичных значений по любому параметру — типу данных, частоте, источнику запросов — это повод начать проверять подозрения. Алгоритмы искусственного интеллекта должны понять, какие события произойдут в приложении после попадания таких запросов через «атакуемые» функции, предсказать, не будут ли такие события инцидентами информационной безопасности, и принять решения — блокировать или пропустить их.

Звучит легко, но откуда система защиты знает, как будет вести себя запрос внутри приложения? От самого приложения — современные системы защиты не смотрят только на входящий трафик, но и исследуют приложения перед тем, как настроиться на его, и поэтому понимающие функционал защищаемого приложения.

Хорошо бы однажды настроить систему защиты и разрешить ей работать автоматически, пропуская типичные действия и блокируя подозрительные. Однако время неизменного функционала информационных систем драматически сокращается — от нескольких месяцев ещё лет пять назад до нескольких часов сегодня, и оно будет сокращаться дальше, поскольку изменения идут всё быстрее. Поэтому сегодня роскошь запустить систему защиты в режим самообучения на пару недель уже недоступна большинству пользователей бизнес-систем и даже государственных услуг. Поэтому сегодня есть спрос на системы, постоянно находящиеся в режиме обучения, в котором система не теряет возможности отражать атаки.

Искусственный интеллект в безопасности пока делает первые шаги, не заменяя, а дополняя системы с обратной связью, закрывая бреши, связанные с неизвестными ранее угрозами. Если честно, пока получается не очень — мы привыкли к «трём-четырём девяткам» (99,9% и 99,99%) надёжности систем защиты, иначе это и не защита вовсе. Когда вы не можете совершить банковскую операцию или зайти на нужный сайт — вполне вероятно, что искусственный интеллект систем защиты почему-то принял ваши действия за атаку или мошенническую операцию. Но справедливости ради стоит сказать, что это случается всё реже — искусственный интеллект понемногу учится.

Никто не идеален. Искусственный интеллект и не должен быть абсолютно безошибочным. Ему достаточно ошибаться реже, чем человек, а остальные преимущества у него уже есть — он не устаёт, не бастует, не уходит в отпуск, не требует повышения зарплаты. Довольно скоро операторам центров реагирования на угрозы будет нечего делать — предсказания о замене людей роботами уже начинают сбываться.

Источник: Рустем Хайретдинов, генеральный директор компании «Атак Киллер»