10 апреля 2026 г.

Рост внедрения генеративного ИИ приведет к увеличению числа инцидентов безопасности.

К 2028 году 25% всех корпоративных приложений генеративного ИИ (GenAI) будут сталкиваться как минимум с пятью незначительными инцидентами безопасности ежегодно, по сравнению с 9% в 2025 году, согласно данным компании Gartner, Inc.

По мере того как организации продолжают разрабатывать и интегрировать агентные ИИ-приложения с использованием таких технологий, как Model Context Protocol (MCP), новые векторы атак и незрелые практики безопасности будут значительно увеличивать уровень рисков.

«MCP изначально создавался с приоритетом на совместимость, простоту использования и гибкость, поэтому ошибки в области безопасности могут проявляться без постоянного контроля за агентными ИИ-системами», — отметил Аарон Лорд, старший директор-аналитик Gartner. «По этой причине частота незначительных инцидентов безопасности в GenAI-приложениях будет расти ускоренными темпами. В конечном итоге мы увидим, что к 2029 году 15% корпоративных GenAI-приложений будут сталкиваться как минимум с одним серьезным инцидентом безопасности в год, по сравнению с 3% в 2025 году».

Новые риски требуют новых подходов к защите

С ростом интереса к таким фреймворкам, как MCP, руководители разработки должны быть готовы к сопутствующим рискам — от утечек данных до уязвимостей в широко используемых сторонних компонентах.

Для защиты от этих угроз необходимо:

  • внедрять строгие процессы аудита безопасности;
  • отдавать приоритет сценариям с низким уровнем риска;
  • учитывать известные паттерны угроз;
  • привлекать отраслевых экспертов для определения ограничений и правил работы ИИ.

Архитектура MCP оптимизирована под скорость разработки и совместимость, а не под безопасность «по умолчанию», поэтому ошибки могут возникать в ходе обычной эксплуатации. Особенно высоки риски в случаях, когда ИИ-агенты одновременно:

  • имеют доступ к чувствительным данным;
  • обрабатывают недоверенный контент;
  • взаимодействуют с внешними системами.

Такие сценарии эксперты рекомендуют рассматривать как «запрещенную зону» из-за высокого риска утечки данных.

Контроль доступа и новые требования к архитектуре

«Руководители разработки должны сотрудничать с командами по данным, безопасности и инфраструктуре, чтобы создать формализованный процесс проверки MCP-сценариев, выделять безопасные паттерны и исключать рискованные комбинации», — подчеркнул Лорд.

Особое внимание следует уделить:

  • усиленной аутентификации и авторизации для ИИ-агентов (отдельно от пользовательских ролей);
  • защите от атак внедрения контента (content injection);
  • контролю цепочек поставок и сторонних компонентов;
  • предотвращению утечек данных и эскалации привилегий.

Масштабирование безопасности

Для эффективного управления рисками Gartner рекомендует выстраивать безопасность вокруг доменных областей. Это означает, что именно владельцы данных и бизнес-направлений должны определять правила (guardrails) для использования ИИ.

«Руководителям разработки необходимо закрепить ответственность за MCP-серверы за доменными командами, чтобы формировать ограничения на основе бизнес-контекста, — отметил Лорд. — Рост сложности агентных ИИ-систем неизбежно приведет к трудностям в управлении доступом к данным и соблюдении требований комплаенса».

В результате компании должны заранее определять правила взаимодействия ИИ с данными и ресурсами, обеспечивая безопасное использование технологий «по умолчанию».

Источник: Пресс-служба компании Gartner