19 сентября 2025 г.

Аналитики Кибердома провели исследование и выяснили, как рядовые ИT-специалисты из крупных компаний оценивают ситуацию с использованием искусственного интеллекта (ИИ) для совершения и отражения кибератак. В опросе приняли участие 1325 ИT-специалистов из российских мегаполисов. Каждый четвертый из них считает самым опасным оружием мошенников дипфейки, которые становятся все более убедительными.

ИИ-угрозы: новые вызовы для информационной безопасности

Самый опасный инструмент мошенников — дипфейки: так считает четверть российских ИT-специалистов, следует из опроса Кибердома. Среди других рисков респонденты назвали расширившиеся благодаря ИИ возможности по подбору и взлому паролей (17%), мошеннические чат-боты (12%), подделку документов (8%), фишинговые письма (2%). А 33% назвали опасным вообще все, что злоумышленники создают с помощью ИИ-технологий.

Регулярно сталкиваются с тем, что мошенники и хакеры используют ИИ, 14% участников опроса. Но все же такие инструменты пока не применяются массово. Так, 80% ИT-специалистов лично не имели дело с ИИ-угрозами, но понимают, что не застрахованы от этого. В то же время 6% затруднились ответить, были ли в их практике инциденты с применением ИИ.

Искусственный интеллект несет в себе риски в части использования для фишинга, социальной инженерии и дипфейков, отмечают в Кибердоме. ИИ — это инструмент, который так или иначе позволяет большому количеству недоброжелателей заниматься мошенничеством. ИИ может автоматически анализировать профиль человека в социальных сетях, имитировать чей-то голос и в целом мимикрировать под друзей и родственников человека. Инструменты на базе ИИ на текущий момент достаточно развиты для того, чтобы упростить «работу» мошенников. И обычным людям, и сотрудникам компаний нужно просто быть к этому потенциально готовыми. Упрощение реализации атак будет вести к их удешевлению для мошенников и к снижению порога входа в эту деятельность, а как следствие — к увеличению количества кибератак.

«ИИ сегодня — это инструмент, который радикально меняет правила игры в киберпространстве. С одной стороны, он открывает для бизнеса новые возможности в анализе данных, прогнозировании и автоматизации процессов. С другой — те же технологии становятся орудием в руках злоумышленников. Дипфейки и другие технологии на основе ИИ снижают порог входа в киберпреступность и делают атаки массовыми и дешёвыми. Поэтому наша задача как профессионального сообщества — не просто реагировать на угрозы, а предугадывать их. Для этого мы сейчас работаем над созданием на нашей базе индустриального аналитического центра и консорциума, куда войдут ключевые игроки бизнеса, кибербез- и ИT-компании, чтобы анализировать и развивать технологии детекции, инвестировать в аналитику ИИ-мошенничества, повышать киберграмотность людей и формировать культуру осознанного поведения в цифровой среде. Побеждает не тот, у кого больше ресурсов, а тот, кто быстрее учится и адаптируется», — комментирует Александра Шадюк, заместитель генерального директора Кибердома.

ИИ на светлой стороне: как справиться с угрозами

Практически две трети участников опроса (62%) уверены, что справиться с ИИ-мошенничеством компаниям поможет только комплексный подход. Многие специалисты отметили необходимость развития технических средств для обеспечения кибербезопасности. Так, 46% считают, что нужно внедрять системы антифрода, многофакторную аутентификацию, ПО для верификации голоса и видео. Почти каждый пятый делает ставку на ИИ-решения и считает необходимым инвестировать в их разработку. По мнению опрошенных, искусственный интеллект будет справляться с ИИ-мошенничеством эффективнее других средств кибербезопасности. Однако, по мнению 20% респондентов, никакие технические средства не смогут обеспечить стопроцентную защиту.

Как показало исследование проекта Кибердом, технологии искусственного интеллекта пока не широко применяются в информационной безопасности. Только 8% опрошенных сказали, что в их компаниях они уже эффективно работают. У 20% есть несколько решений на базе ИИ, но для полноценной защиты им этого недостаточно. У 42% участников опроса внедрение ИИ-решений только в планах. А почти четверть опрошенных не использует искусственный интеллект в кибербезопасности и не планирует это делать в ближайшее время.

Также ИT-специалисты отмечают роль человеческого фактора в противодействии ИИ-мошенничеству. Каждый третий (32%) считает, что без бдительности людей любые технические решения будут малоэффективны. В качестве необходимой меры борьбы с ИИ-угрозами 48% опрошенных назвали обучение персонала: проведение тестовых атак, чтобы сотрудники могли отработать действия в случае угрозы и различные тренинги.

В Кибердоме подчеркивают, что противостоять социальной инженерии, фишинговым письмам помогают регулярное обучение людей, мастер-классы, тренинги и семинары о потенциальных рисках и угрозах, их источниках. Важно научить сотрудников правильно реагировать, если они встречаются с этими явлениями.

«Когда мы говорим о киберугрозах, важно понимать: слабым звеном зачастую становятся не технологии, а люди. Именно сотрудники — от топ-менеджеров до рядовых специалистов — нередко становятся „точкой входа“ для злоумышленников. Причина проста: многие не знают даже базовых правил кибергигиены. В Кибердоме в этом году мы открыли академию, в которой делаем упор на просвещение не технических специалистов, а руководителей бизнеса и управленцев. Культура цифровой безопасности формируется сверху, а её реальная эффективность проявляется в ежедневных действиях каждого человека внутри компании», — отмечает Дарья Артюшкина, руководитель академии Кибердома.

Прогнозы использования ИИ в кибербезе

По мнению половины опрошенных ИT-специалистов, использование ИИ в кибербезопасности поможет повысить уровень безопасности компаний. Мнения, что искусственный интеллект полностью или частично вытеснит человека из сферы кибербезопасности в далёком будущем, придерживается четверть опрошенных. Еще четверть считают, что ИИ возьмет на себя часть функций по защите.

Источник: Пресс-служба компании Кибердом