21 ноября 2025 г.
Сегодня самый большой риск для GenAI — не рисковать вовсе и ждать, пока «пыль осядет»
Доклад Аруна Чандрасекрана, старшего вице-президента и аналитика Gartner
Руководители, отвечающие за внедрение ИИ, сегодня находятся под постоянным давлением: от них ждут быстрых результатов от пилотных проектов GenAI и требовательнее оценивают каждое новое инвестирование в ИИ. В своём выступлении Арун Чандрасекран рассказал о наиболее частых причинах неудач проектов генеративного ИИ и о практиках, которые помогают их избежать и масштабировать ИИ в масштабе предприятия.
- Причина № 1: Генеративный ИИ сам по себе — не всегда подходящая техника. Нужно рассматривать композитный подход, где комбинация разных методов ИИ даёт больше ценности, чем использование одного GenAI.
- Причина № 2: Технологическое устаревание. Чтобы избежать устаревания технологий, необходимо:
- выбирать подходящие методы ИИ;
- строить композиционную (composable) архитектуру платформы;
- обеспечивать готовность данных для ИИ.
- Причина № 3: Ответственный ИИ — «после всего остального». Ответственный ИИ должен быть в центре всех усилий по GenAI. Важно не только понимать, где ИИ можно применять, но и где его применять нельзя.
- Причина № 4: Недостаточные инвестиции в data literacy и AI literacy. Нужно вкладываться в развитие компетенций сотрудников — в персонализированное обучение, где внимание уделено не только знаниям, но и практическим навыкам.
Состояние регулирования ИИ: как выстроить единую стратегию
Доклад Анушри Вермы, старшего директора-аналитика Gartner
Регулирование ИИ развивается почти так же быстро, как появляются новые ИИ-продукты. CIO приходится работать в сложной и постоянно меняющейся нормативной среде, соблюдая требования, но не тормозя при этом реализацию своей AI-стратегии. Анушри Верма представила глобальный обзор регулирования ИИ, объяснила, чего ждать в ближайшие 12 месяцев, и дала рекомендации по подготовке к всё более фрагментированной регуляторной среде.
Ключевые тезисы
- «Большинство законов об ИИ имеют схожую структуру, хотя каждый включает и уникальные элементы. Обычно такие законы определяют, что считается ИИ, устанавливают уровни риска и набор связанных обязательств».
- «При внедрении высокорисковых систем ИИ компаниям необходимо выстраивать программу управления рисками: отслеживать, контролировать и документировать использование этих систем и снижать связанные с ними риски».
- «Необходимо мониторить качество данных, используемых в высокорисковых ИИ-системах — как в обучении, так и в принятии решений — и обеспечивать человеческий контроль и надзор».
- «Создавайте программы обучения и повышения AI-грамотности, чтобы пользователи высокорисковых ИИ-систем понимали их риски и могли сообщать о проблемах, если поведение системы выходит за пределы допустимого».
Источник: Пресс-служба компании Gartner
















