1 апреля 2026 г.
Все больше задач, которые раньше выполнял человек, сегодня передается искусственному интеллекту, поскольку он выполняет их быстрее, а иногда и качественнее. Тем не менее остаются сферы, где использование ИИ при кажущемся удобстве может только навредить. Где стоит проявлять осторожность, рассказывает Дмитрий Крюков, руководитель ИИ-направления МТС Линк.
1. Стратегия и управленческие решения
В корпоративной практике все чаще возникает соблазн расширить роль ИИ — превратить его из помощника в участника принятия решений. Но ИИ — не очень хороший советчик, когда речь заходит о стратегии. Не стоит слепо доверять ему.
Нейросеть склонна соглашаться с человеком, даже если он неправ, и априори пытается угождать собеседнику. Поэтому решения, принятые ИИ, будут ориентированы на предпочтения конкретного пользователя. Далеко не факт, что они будут соответствовать поставленной задаче и отвечать интересам компании. И если руководитель безоговорочно доверяет таким выводам, он рискует и собственной, и корпоративной репутацией. А отвечать за последствия придется лично ему.
Показательным примером служит кейс, когда аналитическое агентство Deloitte обязали выплатить почти 300 тысяч долларов правительству Австралии за отчет, составленный с помощью ИИ. В нем содержались выдуманные цитаты, ссылки на несуществующих людей, многочисленные ошибки, тогда как данные предполагалось использовать для усовершенствования системы соцобеспечения в государстве.
Этот пример показывает, что ИИ на уровне стратегии можно использовать лишь вспомогательно — например, попросить его найти слабые места в собственных выводах или обработать информацию. Любые полученные от него данные стоит перепроверять, так как нейросети могут откровенно выдумывать факты, ссылки и цитаты. И ни в коем случае не доверяйте ИИ принятие решений, от которых зависит судьба проектов, сотрудников и тем более всей компании.
2. Итоговые кадровые решения
ИИ уже сейчас серьезно экономит время специалистов по кадрам в вопросах рекрутмента: помогает составлять тексты вакансий, формулировать вопросы для собеседований, анализировать ответы кандидатов и проводить первичный отбор резюме. Кроме того, компании используют нейросети для составления карьерных треков и индивидуальных планов развития, подбора программ обучения, анализа причин оттока сотрудников и даже прогнозирования вероятности выгорания.
Но есть и риски, связанные с внедрением ИИ в HR-процессы. Один из главных — это принятие неверных кадровых решений из-за ошибок ИИ, которого опасаются 38% российских HR-профессионалов, опрошенных МТС Линк и платформой Jinn. И эти опасения небеспочвенны: ИИ действительно оценивает кандидатов по формальным критериям, а его алгоритмы зачастую непрозрачны с этической точки зрения. Однако ИИ стал привычным помощником в кадровой работе, и отказываться от него не нужно. Ключевой вопрос — как правильно разделить задачи между автоматикой и человеком.
В сфере найма. Первичный отбор резюме по формальным критериям (ключевые слова, опыт, образование) при массовом найме — оптимальная задача для ИИ. Он позволяет обрабатывать тысячи откликов, в разы сокращая время и затраты. Но при оценке специалистов — особенно их мотивации, гибких навыков, соответствия культурному коду компании — нужно человеческое участие. Окончательный вердикт и финальное решение о найме должны оставаться за специалистом.
В работе с действующими сотрудниками. Анализ больших массивов данных для выявления закономерностей (например, факторов оттока или потребностей в обучении) ИИ помогает выполнять быстро и с высокой точностью. Но когда дело касается индивидуальных решений — о повышении, премиях, штрафах или этически сложных ситуациях — роль ИИ стоит ограничить подготовкой данных и вариантов действий.
3. Подготовка контента под ключ
Еще пару лет назад тексты, написанные нейросетью, выглядели откровенно слабыми, но сейчас ИИ пишет лучше, чем посредственный копирайтер. Отсюда возникает соблазн переложить задачу на машину, а потом бегло вычитать результат и опубликовать как есть — а то и вовсе обойтись без вычитки.
Но те, кто работают с текстами постоянно, уже знают, что хорошими тексты нейросети кажутся только поначалу. Стоит написать таким способом хотя бы десяток — и становится заметно, насколько они похожи и как много в них общих фраз. Добавьте сюда одни и те же повторяющиеся конструкции (порой заимствованные из английского), шаблонные формулировки или выдуманные слова — и станет понятно, почему нейросети нельзя полностью перепоручать написание текстов. И это не говоря уже о том, что ИИ только так выдумывает данные, цитаты, их авторов, а информация, найденная им в сети, не всегда актуальна.
Если для SEO-публикаций или текстов для внутреннего использования это не так критично, то в экспертных статьях подобное недопустимо. Читатель, видя имя эксперта, ждет, что тот поделится эксклюзивными наблюдениями. Если вместо них он получит нейросетевые общие слова, репутация специалиста сильно пострадает, как и авторитет компании, в которой он работает.
4. Контроль и критическая оценка результатов
Контроль качества также не может быть полностью передан алгоритму даже при высоком уровне автоматизации. ИИ способен генерировать тексты, расчеты, аналитические сводки и прогнозы с высокой скоростью и убедительностью, но убедительность не равна достоверности. Именно поэтому финальная проверка должна оставаться за человеком.
ИИ работает на вероятностях и статистических закономерностях. Он не понимает содержание в человеческом смысле и не осознает последствия ошибки. Модель может сформулировать логичный, структурированный и уверенный ответ, который при детальной проверке окажется фактически неверным или методологически слабым. Именно по этой причине ИИ не может быть финальной инстанцией контроля.
Отдельный риск — постепенное снижение уровня критической проверки. На старте внедрения ИИ компании обычно тщательно перепроверяют результаты: сверяют расчеты, читают тексты, анализируют рекомендации. Однако по мере привыкания к инструменту возникает эффект «умной системы по умолчанию». Результаты начинают восприниматься как априори надежные. Проверка становится формальной или исчезает вовсе. В этот момент формируется ложное ощущение стабильности. Ошибки не сразу проявляются в явном виде, но начинают накапливаться — в отчетах, аналитике, документах, коммуникациях.
Чтобы минимизировать эти риски, необходимо выстраивать процессы двойной проверки и разграничения ролей. ИИ может готовить черновики, расчеты, варианты решений, но этап утверждения и финальной оценки должен быть четко закреплен за человеком. В критических сферах — финансах, праве, медицине, безопасности — это особенно важно. Кроме того, полезно периодически проводить выборочный аудит результатов работы модели.
И в заключение стоит вспомнить важное универсальное правило. О каких бы типах задач ни шла речь, руководителю полезно задать себе простой вопрос: если завтра это решение окажется ошибочным — могу ли я публично сказать, что это была моя ответственность? Если ответ «нет, это так модель решила» — значит, вы уже делегировали слишком много.
Источник: Дмитрий Крюков, руководитель ИИ-направления МТС Линк

















