15 августа 2023 г.

Искусственный интеллект — точнее, чат-бот в качестве интерфейса для взаимодействия с генеративной моделью машинного обучения, — становится всё более привычным рабочим инструментарием во множестве отраслей, порой весьма далёких от классических ИТ. Не означает ли это, что высокотехнологичный рынок в обозримой перспективе испытает сильнейший перекос — в сторону мощных специализированных серверов, способных эти самые модели исполнять и поддерживать?

Скажи-ка, робот

Появившийся прошлой осенью в открытом доступе — через веб-интерфейс — «подлинно умный» бот ChatGPT незамедлительно полюбился самым широким массам владельцев компьютеров или хотя бы смартфонов по всему миру. С его помощью писали официальные письма и резюме, отыскивали ошибки в программном коде и даже добивались гарантированных свиданий в приложениях для знакомств. К настоящему времени этот интерес не угас; более того — люди начинают полагаться на «подлинно умных» чат-ботов всё чаще и при решении всё более широкого спектра задач, включая рабочие. А это уже напрямую, хотя пока и в небольших масштабах, оказывает влияние на структуру мирового ИТ-рынка.

Недавно проведённый Reuters/Ipsos среди более чем 2,5 тыс. взрослых работающих американцев опрос показал, что 28% из них регулярно обращаются к ChatGPT (и только к нему; а есть ведь и другие аналогичные боты!) для решения разнообразных рабочих задач. При этом лишь 22% подтвердили, что их работодатель недвусмысленно одобрил такой способ повышения производительности труда за счёт привлечения «подлинно умного» бота, а 25% признали, что вообще не задавались вопросом, разрешено это или нет. Уже около 10% руководителей бизнесов в США напрямую запрещают обращаться к ChatGPT и подобным ему сервисам для решения рабочих проблем — и, допускают, эксперты, доля эта в ближайшем будущем будет только расти.

Для чего же запрещать коммуникации с «подлинно умным» ботом, если он так полезен? В немалой степени дело в коммерческой тайне — точнее, в полном её отсутствии, если говорить о данных, передаваемых ChatGPT и иным генеративным моделям для обработки. Одно дело — призвать на помощь бота для составления некоего делового письма, в тексте которого почти наверняка не окажется чувствительной для бизнеса информации. И совсем другое — скормить компьютерной модели, базирующейся где-то в облаке, отчёты, к примеру, по продажам за последние полгода, — попросив затем сформировать на их основе красивую и впечатляющую презентацию.

Задача почти наверняка будет выполнена более чем удовлетворительно, — однако доступ к однажды загруженным в ChatGPT данным навсегда остаётся как у его разработчиков, так в ряде случаев и у внешних компаний, нанимаемых в качестве подрядчиков для верификации и оптимизации функционирования бота. И это вовсе не досужее предположение: не далее как весной этого года такая солидная компания, как Samsung, полностью запретила сотрудникам использовать в качестве рабочего инструмента ChatGPT — поскольку чувствительный программный код, относительно оптимизации которого кто-то из них консультировался с генеративной моделью, утёк в Интернет. К настоящему времени только из крупных западных организаций общение с «подлинно умными» ботами успели заблокировать для своих сотрудников Accenture, Amazon, Apple, Bank of America, Deutsche Bank и Northrop Grumman.

Впрочем, дело не только в потенциальном риске утечек. Искусственный интеллект — вовсе не мистический оракул, изрекающий одну только истину: хотя формулирует он свои ответы чаще всего чрезвычайно убедительно, примерно в половине случаев они оказываются попросту некорректными — даже если рассматривать такую вполне прикладную отрасль, как программирование. Исследователи из университета Пёрдью установили на выборке в более чем полтысячи ответов на вопросы пользователей известного кодерского ресурса Stack Overflow, что из предлагавшихся ChatGPT рецептов решения программистских проблем целых 52% оказались прямо неверными.

Хуже всего то, что поскольку «подлинно умный» чат-бот натренирован на огромном массиве данных поддерживать живой человеческий разговор, выдаваемые им рекомендации в среднем куда более детальны, правдоподобны и убедительны, чем реплики живых программистов (которые порой и в собственном-то коде скупятся на развёрнутые комментарии). Исследователи приводят ещё более пугающую статистику: если брать не полную выборку вопросов и ответов, а лишь те задачи, по которым рекомендации ChatGPT оказались, по мнению посетителей сайта, более предпочтительными (по числу «лайков» превзошли человеческие), то в этом случае доля неверных ответов чат-бота достигает уже 77%.

Не то чтобы это было тайной для всех: перед началом работы с ChatGPT пользователя явным образом предупреждают, что тот может «выдавать некорректную информацию относительно людей, мест и фактов». Но только кто же в наше время внимательно читает подобные дисклеймеры?

Больше тяжёлого «железа»

В 2022 г. мировой рынок генеративного ИИ достиг, по оценке IMARC Group, 10,3 млрд долл. США, а уже к 2028-му может вырасти до 30 с лишним млрд — со среднегодовым темпом более 20%. Значит ли это, что нынешние и будущие пользователи услуг «подлинно умных» ботов слепо готовы вкладывать деньги в столь ненадёжный инструмент?

Нет, конечно, — просто магистральное направление развития ChatGPT и подобных ему сервисов с очевидностью не будет прямолинейным продолжением нынешнего его курса. Сегодня генеративные модели по большей части доступны не просто через облака, а непосредственно с серверов их разработчиков (располагающихся on-premises или арендованных у гиперскейлеров, — не суть). Всё дело в чудовищных по меркам даже крупной организации, не специализирующейся на ИТ, аппаратных требованиях генеративных моделей.

Для работы предварительно натренированного бота ChatGPT оптимальна конфигурация из 8 серверных видеокарт NVIDIA A100 (примерно по 10 тыс. долл. за штучку; система целиком, включая процессор,ОЗУ и накопители, обойдётся не менее чем в 100 тыс. долл.), а самостоятельная тренировка модели на специализированном массиве входных данных потребует в 10, а то и в 30 раз больше «железа», — плюс дополнительных затрат на электроэнергию, на отбор и упорядочение самих этих данных силами высококвалифицированных специалистов и т. п.

По этой причине эксперты ожидают уже в самом скором времени стратификации рынка генеративного ИИ на общедоступные сервисы (вроде нынешних ChatGPT или Bard — с доступом по весьма щадящей подписке, открытых всем, но и не отвечающих ни за сохранность каких бы то ни было введённых в них данных, ни за достоверность выдаваемых рекомендаций) и на частные инсталляции. Последние, в свою очередь, могут базироваться либо на серверах заказчика, либо в доверенных облаках: смысл в том, что доступ к таким моделям будут иметь исключительно авторизованные пользователи и обслуживающий персонал, что должно снять проблему утечки чувствительных данных — и одновременно повысить качество формулируемых такими системами ответов.

Увеличение платёжеспособного спроса — а позволить себе столь дорогостоящие инсталляции on-premises или в коммерческих ЦОДах сможет далеко не каждая компания — постепенно будет вести к росту разнообразия аппаратных предложений. Уже сегодня Amazon разрабатывает собственные микропроцессоры, ориентированные на обучение и эксплуатацию генеративного ИИ, — и не она одна. По оценке McKinsey, до 2030 г. связанные с ИИ разработки имеют все шансы добавить в экономику одной только КНР не менее 600 млрд долл. — это «при условии продолжающейся международной кооперации», оговариваются аналитики.

Если же нынешняя политика администрации США по ограничению доступа Китая к передовым высоким технологиям продолжится — а пока никаких сомнений в этом нет, — инженерам Поднебесной придётся (в сотрудничестве со специалистами из дружественных стран, вполне вероятно) самим разрабатывать недостающие компоненты, оборудование и технологии. Что, в свою очередь, приведёт к ещё более масштабному вливанию средств в области генеративного ИИ — позитивный эффект от чего со временем ощутит на себе, надо полагать, и российский ИТ-рынок.

Да, вполне вероятно, что исполняемые на условных 14-нм чипах генеративные модели вроде ChatGPT будут более медлительными и куда более энергозатратными, чем их «кузины», запущенные в то же самое время на 3-нм микросхемах за океаном. Однако в программировании алгоритмическое превосходство едва ли не важнее аппаратного, — а отечественные специалисты до сих пор держат тут достаточно высокую марку. Так что почти наверняка уже через 3-5 лет мировые ИТ-рынки, в том числе и российский, действительно смогут изрядно прирасти сегментом «тяжёлых» ИИ-серверов, рассчитанных на тренировку и исполнение частных генеративных моделей для самых различных специализированных приложений.

Притом и обычные серверы, и ПК в качестве терминалов продолжат оставаться востребованными — просто потому, что даже «подлинно умные» боты не в состоянии целиком заменить классические ИТ-методы решения бизнес-задач. Помочь, повысить эффективность, ускорить выявление и рассмотрение возможных вариантов — да. Но не полностью заменить человека.

Источник: Максим Белоус, IT Channel News