6 июня 2025 г.
В этой статье мы опишем опыт внедрения ИИ-помощники в систему для управления проектами Timetta. Рассказываем, почему решили внедрить искусственный интеллект, какие технологии выбрали, с какими трудностями столкнулись, какой результат получили и в каком направлении собираемся двигаться дальше.
Timetta — росссийская ИТ-компания, специализирующаяся на разработке и внедрении облачных решений для управления проектами. Компания ориентируется на наиболее современные технологии и подходы к разработке ПО. Внедрение ИИ стало технологическим вызовом и поводом показать свои навыки.
Контекст
Интерес к искусственному интеллекту становится все более настойчивым. В 2024 году только каждая десятая компания, заинтересованная в использовании Timetta, спрашивала об искусственном интеллекте внутри платформ. В 2025 году — уже каждая третья, причем часто это были крупные заказчики, которые искали решение на тысячу пользователей.
Искусственный интеллект — новая технология, вокруг неё много домыслов и спекуляций. Одни видят в ней потенциал, сравнимый с влиянием ядерного оружия на историю, другие — пузырь, созданный на завышенных ожиданиях. Реальность далека и от того, и от другого.
Современный ИИ — это группа различных технологических решений, созданных на базе нейросетей. Одно из таких решений — LLM (large language models, или большие языковые модели). Языковая модель умеет создавать текст за счет того, что угадывает наиболее статистически вероятный ответ в контексте запроса пользователя. Чтобы модель могла правильно угадать ответ, нужно большое количество данных и вычислительных ресурсов для их обработки. Это служило объективным ограничением для широкого внедрения ИИ в программные продукты, особенно для небольших компаний.
В 2025 году ситуация изменилась. Появились специализированные технологии, такие как RAG-архитектура и доступные векторные базы данных. Что гораздо важнее — появилась облачная инфраструктура с уже развернутыми языковыми моделями, базами данных, API и понятным пайпланом.
Таким образом к 2025 году сложились все предпосылки для широкого внедрения ИИ. С одной стороны — готовая технологическая база, с другой — настойчивый запрос со стороны бизнеса.
Как принималось решение о внедрении AI-помощника в Timetta?
Компания видела, что все больше клиентов спрашивают о наличии искусственного интеллекта внутри платформы. Запрос был очевиден, но не было четкого понимания, как использовать ИИ внутри системы для управления проектами.
Выдвигались разные гипотезы. Уже в середине 2024 года появилось предложение использовать ИИ для выявления рисков проекта. Однако сразу встал ряд вопросов. Откуда взять данные для обучения модели? Какую методику определения риска выбрать? Как интегрировать систему мониторинга рисков в платформу? Какой технологический стек выбрать? Если использовать данные пользователей, то как исключить риски ИБ? Ведь Timetta используют для контроля финансовых показателей, а это часть коммерческой тайны.
В результате обсуждений было решено внедрять ИИ постепенно: начать с той области, которая наиболее изучена и популярна в данный момент.
По мнению руководства, такой областью был генеративный ИИ. Сотрудники компании сами использовали чат-ботов для решения небольших задач и хорошо представляли себе возможности, потенциал и ограничения языковых моделей. Так родилась идея разработать на начальном этапе виртуального помощника для ответов на вопросы пользователей по работе в системе, а затем уже на его основе внедрять другие, более сложные ИИ-инструменты.
В начале 2025 года AI-помощник был включен в карту развития. Проект был реализован всего за месяц. Чат-бот Timetta вышел в начале мая 2025 года.
Цели и задачи внедрения
Разработка чат-бота для Timetta была прежде всего статусным проектом. Важно было на деле доказать, что компания является технологичной, держит руку на пульсе трендов разработки ПО, умеет адекватно отвечать на вызовы рынка и идти навстречу клиентам.
От 60% до 80% всех запросов в техническую поддержку — это типовые обращения. Ответ на них можно найти в базе знаний, в справке по системе, в руководстве пользователя и других справочных документах. Ответы на такие вопросы не требуют специальных знаний от службы технической поддержки, однако отнимают немало времени на обработку. Чем больше запросов, тем большая нагрузка ложится на плечи техподдержки.
Чат-бот не сможет обработать сложное обращение. Зато он сможет найти нужную информацию в справке, сразу же ответит на дополнительные вопросы, составит инструкцию. Это поможет снизить нагрузку на техподдержку, повысит скорость ее работы по сложным обращениям.
Существенно, что для обучения такого бота не нужно иметь список популярных вопросов и ответов, как это было в старых моделях. Достаточно использовать уже подготовленную документацию.
Ход проекта
Проект не занял много времени и не потребовал значительных затрат на внедрение. С учетом имеющейся инфраструктуры в России чат-бота можно внедрить за месяц силами одного специалиста по языковым моделям.
На первом этапе мы использовали облачные серверы Яндекса для построения RAG-архитектуры. У Яндекса есть несколько развернутых языковых моделей (YandexGPT 5 и Llama), векторные базы данных и матрицы для векторизации запросов. Поскольку основные, наиболее ресурсоемкие элементы инфраструктуры уже развернуты, программист может сосредоточиться непосредственно над созданием чат-бота и работе с языковой моделью.
Много времени заняла работа над улучшением справки. Потребовалось переработать часть статей, чтобы языковая модель использовала только актуальные материалы.
Правда, компания сразу же столкнулась с некоторыми ограничениями предложенной архитектуры. Во-первых, сервисы Яндекса недостаточно гибкие. Во-вторых, достаточно дорогие. Один запрос пользователя обходится компании примерно в 7 рублей. 500 запросов — в 3 500 рублей. При таком потоке в месяц получится уже 70 000 рублей. Только у одного клиента могут быть более 1000 пользователей и каждый из них, в теории, может обратиться к AI-помощнику. Для оптимизации расходов нужна уже собственная программная инфраструктура — прежде всего собственная векторная база данных.
Результаты внедрения
На первом этапе компания не ставила перед собой цели снизить расходы на техническую поддержку. Главное было создать работающий и востребованный AI-сервис.
Успех проекта оценивался по количеству обращений к чат-боту. Вначале их было немного, порядка
Второй целью было понять, как правильно интегрировать современные генеративные модели в приложение. С этим тоже удалось разобраться — стало понятно, как оптимизировать программную инфраструктуру для дальнейшего масштабирования на большое количество пользователей. Компания научилась собирать статистику для оценки востребованности новой функции в системе. Эти данные позволили наметить пути для дальнейшего развития AI-помощника.
Кратко:
- Чат-бот обрабатывает до 80% типовых запросов.
- Количество обращений к боту выросло в 2 раза за неделю и продолжает расти.
- Компания планирует масштабировать решение, снизить затраты и внедрить новые сервисы.
Дальнейшие шаги по развитию AI-помощника
Сейчас Timetta активно масштабирует нового чат-бота, чтобы сделать его использование менее затратным. Вместе с тем компания продолжает раскрывать потенциал, заложенный в RAG-архитектуру. В ближайшее время чат-бот научится помогать пользователю при настройке интеграции. В течение года компания планирует научить бота работать с конкретными данными пользователя и обезличенными данными всех пользователей Timetta. Это поможет находить нужную информацию в системе и прогнозировать риски проектов. Разработка займет время, так как важно обезопасить данные клиентов, полностью исключить риски утечки информации. Тем не менее компания с оптимизмом смотрит в будущее и видит большой потенциал в современных ИИ-технологиях.
Источник: Александр Спиридонов, директор по консалтингу в Timetta