10 апреля 2026 г.
Рост внедрения генеративного ИИ приведет к увеличению числа инцидентов безопасности.
К 2028 году 25% всех корпоративных приложений генеративного ИИ (GenAI) будут сталкиваться как минимум с пятью незначительными инцидентами безопасности ежегодно, по сравнению с 9% в 2025 году, согласно данным компании Gartner, Inc.
По мере того как организации продолжают разрабатывать и интегрировать агентные ИИ-приложения с использованием таких технологий, как Model Context Protocol (MCP), новые векторы атак и незрелые практики безопасности будут значительно увеличивать уровень рисков.
«MCP изначально создавался с приоритетом на совместимость, простоту использования и гибкость, поэтому ошибки в области безопасности могут проявляться без постоянного контроля за агентными ИИ-системами», — отметил Аарон Лорд, старший директор-аналитик Gartner. «По этой причине частота незначительных инцидентов безопасности в GenAI-приложениях будет расти ускоренными темпами. В конечном итоге мы увидим, что к 2029 году 15% корпоративных GenAI-приложений будут сталкиваться как минимум с одним серьезным инцидентом безопасности в год, по сравнению с 3% в 2025 году».
Новые риски требуют новых подходов к защите
С ростом интереса к таким фреймворкам, как MCP, руководители разработки должны быть готовы к сопутствующим рискам — от утечек данных до уязвимостей в широко используемых сторонних компонентах.
Для защиты от этих угроз необходимо:
- внедрять строгие процессы аудита безопасности;
- отдавать приоритет сценариям с низким уровнем риска;
- учитывать известные паттерны угроз;
- привлекать отраслевых экспертов для определения ограничений и правил работы ИИ.
Архитектура MCP оптимизирована под скорость разработки и совместимость, а не под безопасность «по умолчанию», поэтому ошибки могут возникать в ходе обычной эксплуатации. Особенно высоки риски в случаях, когда ИИ-агенты одновременно:
- имеют доступ к чувствительным данным;
- обрабатывают недоверенный контент;
- взаимодействуют с внешними системами.
Такие сценарии эксперты рекомендуют рассматривать как «запрещенную зону» из-за высокого риска утечки данных.
Контроль доступа и новые требования к архитектуре
«Руководители разработки должны сотрудничать с командами по данным, безопасности и инфраструктуре, чтобы создать формализованный процесс проверки MCP-сценариев, выделять безопасные паттерны и исключать рискованные комбинации», — подчеркнул Лорд.
Особое внимание следует уделить:
- усиленной аутентификации и авторизации для ИИ-агентов (отдельно от пользовательских ролей);
- защите от атак внедрения контента (content injection);
- контролю цепочек поставок и сторонних компонентов;
- предотвращению утечек данных и эскалации привилегий.
Масштабирование безопасности
Для эффективного управления рисками Gartner рекомендует выстраивать безопасность вокруг доменных областей. Это означает, что именно владельцы данных и бизнес-направлений должны определять правила (guardrails) для использования ИИ.
«Руководителям разработки необходимо закрепить ответственность за MCP-серверы за доменными командами, чтобы формировать ограничения на основе бизнес-контекста, — отметил Лорд. — Рост сложности агентных ИИ-систем неизбежно приведет к трудностям в управлении доступом к данным и соблюдении требований комплаенса».
В результате компании должны заранее определять правила взаимодействия ИИ с данными и ресурсами, обеспечивая безопасное использование технологий «по умолчанию».
Источник: Пресс-служба компании Gartner

















