22 сентября 2025 г.

Почти три года прошло уже с момента открытия свободного доступа ко всем, кажется, сегодня известному боту ChatGPT — и с того, как началась всеобщая шумиха вокруг искусственного интеллекта, который якобы вот-вот примется исполнять обязанности подавляющего большинства живых сотрудников самых разных организаций и предприятий. Дарио Амодеи (Dario Amodei), глава компании Anthropic, утверждает, к примеру, что всего через 5 лет до половины нынешних «белых воротничков» окажутся заменены генеративными на своих рабочих местах моделями, — к понятной радости работодателей, уже подсчитывающих, сколько на этом переходе удастся сэкономить.

Однако чем совершеннее становятся ИИ-модели — а актуальные сегодня их версии с вариантами трёхлетней давности объективно не сравнить, — тем менее и менее мрачной видится грядущая ситуация на рынке занятости. Бесспорно, ИИ хорош при решении рутинных и утомительных задач, особенно сопряжённых с перелопачиванием громадных массивов разрозненных, неструктурированных данных. Зато когда вводные и/или запросы оператора оказываются хоть сколько-нибудь нетривиальными, генеративные модели если не полностью пасуют, то принимаются куда чаше ошибаться либо вовсе галлюцинировать — выдавая слабо соотносящиеся с реальностью ответы.

И то, и другое вполне объяснимо: «знание» на уровне нейросети — фактически, значения коэффициентов (весов), с которыми в ней производятся матричные операции над числами — формируются в процессе тренировки. Тренировка же сводится к прогонке через эту самую нейросеть гигантского объёма данных. И чем больше в таком объёме неких закономерностей — будь то грамматически корректные сочетания слов, повторяющиеся трактовки неких событий из истории, схожие логические схемы в рассуждениях и т. п. (то есть чем тривиальнее «усваиваемый» в ходе обучения системой паттерн), — тем с большей вероятностью ИИ успешно справится с подходящей под этот же паттерн задачей. Соответственно, в нерядовых ситуациях (которые в обучающем материале представлены были скудно) машина куда чаще будет давать маху.

Казалось бы, решение очевидно: пусть тривиальные задачи решает ИИ, а люди остаются на требующих более вдумчивой работы позициях, — это и приведёт, навскидку, к ожидаемому господином Амодеи, да и другими визионерами машинного разума, сокращению биологических штатов. На деле, впрочем, ситуация сложнее: генеративная модель, конечно же, справится с целым рядом задач лучше низкооплачиваемого клерка — но поскольку она просто по природе своей подвержена упомянутым уже галлюцинациям (т. е. это не временный недостаток, который рано или поздно инженеры изведут под корень, — это имманентно присущая самой схеме тренировки глубокой нейросети особенность), выдаваемые ею результаты придётся проверять и перепроверять живому сотруднику. Который, кстати, в итоге и будет нести ответственность за принимаемые машиной решения — серверную стойку в кутузку, случись что, закрывать бессмысленно, — так что к обязанностям своим он наверняка отнесётся со всей серьёзностью. И компенсации потребует соответствующей, — так что не факт ещё, что в итоге работодатель выиграет.

Прямое тому подтверждение — недавняя речь президента компании CrowdStrike Майка Сентонаса (Mike Sentonas) на конференции, посвящённой представлению «agentic SOC», умного ИБ-центра (security operations center), который оперирует с участием нескольких мощных ИИ-агентов. Те действительно принимают на себя немало рутинных и трудоёмких задач, высвобождая тем самым силы живых сотрудников ИБ-отдела, — однако разработчик вовсе не подразумевает, будто нагрузка на людей в такой ситуации снизится, и штат этих дорогостоящих специалистов можно будет с чистой душой сократить. Напротив: по сравнению с прошлогодней ситуацией — когда направление агентного ИИ только начинало набирать импульс, и ожидания у экспертов были самые радужные, — CrowdStrike и их коллегам сегодня кристально ясно: людям придётся работать даже больше, поскольку уровень решаемых теми задач значительно вырастет.

Не секрет, что злоумышленники уже вовсю применяют новомодные генеративные инструменты — как в целях социальной инженерии, чтобы отыскать подход к готовым раскрыть корпоративные секреты сотрудникам, так и для автоматизации и интеллектуализации поиска уязвимостей в программном коде. Тем более, что код этот всё чаще пишут сами же ИИ-модели — обученные, разумеется, на открытых репозиториях, и потому чаще, чем следовало бы, допускающие в своих программах примерно те же ошибки, которые свойственны кодерам-новичкам, что пишут по зову, что называется, сердца, — без поддержки системных архитекторов и целых команд тестировщиков. Понятно, что в Сети достаточно и вполне профессионального открытого кода, но проприетарный характер подавляющего большинства активно используемых в бизнесе солидных приложений отнюдь не способствует ИБ-иммунизации творений ИИ.

Таким образом, уверен глава CrowdStrike, ныне действующим сотрудникам отделов информационной безопасности придётся массово переключаться на решение более высокоуровневых задач — получая притом в своё распоряжение мощную основу, создаваемую цифровыми ИИ-агентами: практически нулевое время реакции на обнаруживаемые опасности, своевременный отсев ложно-позитивных ситуаций, тщательное документирование инцидентов и т. п. «Агентный SOC», предупреждает компания-разработчик, в обозримой перспективе не имеет шансов превратиться в «автономный SOC»: без участия человека адекватно реагировать на нетривиальные угрозы система не сможет — впрочем, с тривиальными зато будет справляться почти на отлично (с поправкой на определённый процент неизбежных галлюцинаций).

В результате работодатель получит, конечно, в своё распоряжение куда более надёжный ИБ-контур, чем прежде, — да только обеспечивать функционирование того будут как дорогостоящая ИИ-агентная система, так и существенно расширившие свои компетенции специалисты. О значительной экономии говорить в такой ситуации вряд ли приходится.

Вот и в Goldman Sachs подтверждают: даром что затраты на ИИ в США на фоне никак не желающего утихнуть бума поистине астрономические, — реальный вклад генеративных моделей в экономику страны измерим, конечно, но до обидного мал. Формально всё просто замечательно: с 2022 г. выручка компаний, предоставляющих ИИ-инфраструктуру, увеличилась на 400 млрд долл., — не могут же такие деньжищи просто взять и раствориться в воздухе! Но это как подсчитать: аналитики вычислили, что за тот же период реальный вклад искусственного интеллекта в американский ВВП (имеется в виду выручка конечных заказчиков от внедрения генеративных моделей в свои бизнес-процессы, а не барыши провайдеров облачной инфраструктуры, на которой эти модели крутятся) не превысил 0,7% от общей его величины.

В итоге, похоже, оказывается, что ИИ действительно создаёт новые угрозы — но для того, чтобы им уверенно противостоять, объективно нужны более профессиональные (и владеющие теми же ИИ-инструментами) живые сотрудники. В итоге затраты и прибыли снова возвращаются к балансу, просто уже на более высоком уровне. Интересно, если большинство участников рынка осознают и верифицируют справедливость этого утверждения, — прекратится наконец безудержная гонка генеративных моделей?

Источник: Максим Белоус, IT Channel News