19 декабря 2025 г.

Денис Казановский

Когда продажи и сервис всё чаще оказываются в руках генеративных моделей, компании сталкиваются с неожиданным управленческим парадоксом: коммуникации становятся масштабнее и чище, но контроль над ними — сложнее. На стыке технологий и коммерции возникает новая зона ответственности: управление ролевыми моделями, рисками и качеством общения, когда решения принимает не человек, но отвечает за них всё равно бизнес.

Кому на самом деле «продает» ИИ

Иллюзия того, что ИИ «продает» так же, как классический менеджер, разбивается о реальность: модель не ведет коммерческие переговоры, а математически оптимизирует заданную функцию. Главный вызов здесь — правильное целеполагание на фоне колоссальной производительности. В наших кейсах голосовой ассистент способен совершать от 2000 результативных звонков в день, тогда как живой оператор выгорает уже на второй сотне. Но именно эта технологическая мощь создает управленческую дилемму: на что потратить этот ресурс?

Бизнес вынужден выбирать в классическом треугольнике trade-off. Если мы ставим задачу максимизировать охват, модель будет завершать разговоры быстрее, жертвуя глубиной квалификации. Если же требуем высокой конверсии и эмпатии, бот начнет «зависать» в диалогах, и охват рухнет. Решение этих конфликтов невозможно делегировать разработчикам — это зона ответственности директора по продажам. Именно он должен сформировать иерархию приоритетов (скорость или качество анкеты?), а архитектура ИИ лишь зафиксирует этот выбор как неизменные параметры воронки.

На практике это диктует разные сценарии настройки. Если бизнесу нужно «пропылесосить» рынок недвижимости, робот будет квалифицировать жестко и быстро, выполняя функцию Lead Qualification: выяснить бюджет и регион, чтобы передать менеджеру «теплого» клиента, а не закрыть сделку самому. Если же задача — поддержка VIP-сегмента, настройки модели (temperature, prompt constraints) радикально меняются в сторону эмпатии и длительности контакта, даже в ущерб количеству диалогов.

Диалог как система

Эпоха жестких скриптов, где каждое слово было прописано в линейном дереве решений («если клиент сказал А, ответь Б»), уходит в прошлое. Генеративный ИИ работает иначе: он импровизирует, но в заданном коридоре. Вместо скриптов компании формируют новый набор точек управления — «рамочную конституцию» диалога. Управленцы теперь формулируют не текст, а правила поведения: запрещенные темы, красные линии, политики упоминания скидок и тональность общения. ИИ обучается действовать внутри этих рамок, адаптируясь под контекст конкретной беседы.

На практике это выглядит как программирование ролевой модели. Мы создаем ассистента и задаем ему жесткие ограничения. Он может обсуждать цены только в рамках вилки, он обязан дважды переспросить клиента, если тот дает нечеткий ответ, и он категорически не должен касаться политических тем или давать юридические гарантии.

Парадокс в том, что при правильной настройке (fine-tuning) ИИ следует этим политикам гораздо строже, чем человек. Живой менеджер может забыть про скидочную политику, поддаться эмоциям или усталости. Модель же стабильна. Она обучается на базе тысяч успешных и неуспешных кейсов, и в результате диалог получается «живым», но управляемым. Клиенты часто не могут отличить такого ассистента от человека, пока дело не доходит до специфических нюансов, требующих передачи управления.

Галлюцинации как операционный риск

Компании часто опасаются «галлюцинаций» нейросетей — ситуаций, когда ИИ уверенно выдумывает факты или дает ложные обещания. Однако с управленческой точки зрения этот риск ничем не отличается от человеческого фактора. Люди тоже «галлюцинируют»: менеджеры приукрашивают продукт ради бонуса, забывают условия акций или просто ошибаются. Разница лишь в способах купирования этих рисков.

Безопасность таких ситуаций обеспечивается каскадной системой, где каждый уровень страхует предыдущий. Фундамент системы — технология RAG (Retrieval-Augmented Generation), которая ставит жесткий барьер: модели запрещено фантазировать на основе данных из открытого интернета, она обязана генерировать ответы строго по верифицированной внутренней базе знаний. Дополнительные фильтры включаются на этапе пре-продакшна: это работа в изолированных «песочницах» и стресс-тесты, где специалисты намеренно провоцируют бота на нарушение красных линий.

То, что раньше регулировалось ненадежными должностными инструкциями и выборочной прослушкой, теперь зашито в программный код и процедуры пост-аудита, и практика показывает, что такая «цифровая дисциплина» оказывается эффективнее: хорошо настроенная модель совершает на порядок меньше критических ошибок, чем уставший оператор колл-центра, работающий на потоке.

Новые метрики — качество рекомендаций и экономика клиента

Компании сталкиваются с тем, что традиционных KPI — конверсии в звонок, среднего чека или скорости первой реакции — уже недостаточно для оценки эффективности цифрового сотрудника. Появляются новые уровни оценки, заимствованные из продуктовой аналитики: качество рекомендаций, влияние на LTV (Lifetime Value) и Churn Rate (отток). Если робот будет слишком настойчив, мы можем получить высокую конверсию в моменте, но потерять лояльность клиента в долгосрочной перспективе. Поэтому становится нормой проведение A/B-тестов на уровне диалогов: одну часть клиентов обслуживает модель с более официальным тоном, другую — с более дружелюбным, и сравниваются результаты на всей длине воронки. Тоже самое касается мужских и женских голосов.

Именно поэтому обучение модели становится непрерывным управленческим процессом. ИИ изучает лучшие звонки топ-менеджеров как эталон поведения, и, что не менее важно, худшие диалоги, чтобы показать антипаттерны. Модель также непрерывно «досматривает» собственные ошибки и корректируется. В итоге испытательный срок для ИИ никогда не заканчивается, но и кривая его обучения растет значительно быстрее, чем у любого сотрудника-человека.

Как меняется CRM, когда данные пишет модель

Изменения в IT-ландшафте, в частности в CRM-системах, носят не столько технологический, сколько методологический характер. Сама структура данных — поля, карточки, воронки — остается прежней. Меняется дисциплина. Диалоговая модель заполняет поля быстрее, аккуратнее и полнее, чем человек. Исчезает вечная проблема РОПов — незаполненные карточки или комментарии в стиле «клиент думает». Модель автоматически анализирует диалог, вычленяет бюджет, сроки, локацию и предпочтения, и раскладывает их по нужным ячейкам.

Однако появляется новая категория ошибок, с которой приходится бороться: «мусорные» записи и дублирование. ИИ может быть слишком педантичным и заносить в систему избыточную информацию, или создавать дубли при каждом новом касании, если не настроена логика склейки. Компании вынуждены вводить новые правила валидации данных на входе: обязательные форматы, автоматическое сопоставление с продуктовой логикой. Иначе воронка начинает «засоряться» не меньше, чем при человеческом вводе, но уже с другой скоростью.

Новые роли в команде

Вместе с ИИ в отделах продаж и сервиса появляются совершенно новые функции и роли. Кто-то должен отвечать за «личность» робота — его тон, лексику, реакцию на хамство. Кто-то должен формировать и актуализировать базу знаний. В передовых компаниях формируются кросс-функциональные команды, где бок о бок работают технические специалисты и эксперты по продажам. Лидерам продаж теперь нужны новые компетенции: понимание того, что такое валидная выборка для обучения, как обновлять промпты и какие диалоги отправлять на разбор.

Появляется роль «AI-тренера» или куратора модели. Это специалист, который понимает психологию продаж, логику обучения ИИ и может перевести бизнес-задачу на язык настроек нейросети. Он определяет, когда модель должна быть настойчивой, а когда — отступить. Команды становятся гибридными, и успех зависит от того, насколько эффективно люди могут обучать своих цифровых коллег.

Где ИИ должен уступить

Несмотря на все успехи автоматизации, мы четко видим границы, за которыми человек остается обязательным участником процесса. ИИ блестяще справляется с массовыми запросами — квалификацией, прогревом холодной базы, сервисными уведомлениями. Но как только речь заходит о крупных сделках, конфликтах, VIP-обслуживании или сложных жалобах — модель должна отойти в сторону.

Компании закрепляют это на уровне процедур. Существуют правила маршрутизации и триггеры передачи диалога на живого сотрудника. Если клиент задает нестандартный вопрос, проявляет сильные негативные эмоции или речь идет о сделке с высоким чеком и готовностью покупки, ИИ лишь собирает фактуру и передает «теплого» лида человеку. В наших процессах робот может прозвонить 2000 контактов, но закрывать теплую сделку будет человек. Чем выше стоимость ошибки и чем важнее эмоциональный контакт, тем раньше в контур возвращается человек. Это и есть баланс полезной автоматизации: робот обеспечивает охват, а человек — доверие.

Источник: Денис Казановский, основатель и управляющий партнёр консалтинговой компании MARGO & PARTNERS