29 марта 2023 г.

Логотип ChatGPT

Компания OpenAI, занимающаяся разработкой в области искусственного интеллекта, недавно запустила сервис ChatGPT, который являет собой новую модель диалогового ИИ. Компания отметила, что сервис умеет «отвечать на уточняющие вопросы, признавать свои ошибки, оспаривать ошибочные допущения и отклонять неуместные запросы».

В соцсетях сразу разгорелись споры о потенциале и рисках новой платформы, начиная от возможностей отладки кода и до написания курсовых для студентов. Берн Эллиот (Bern Elliot), вице-президент-аналитик Gartner, делится своим мнением о последствиях этого новшества и предлагает шаги, которые следует предпринять руководителям служб обработки и анализа данных (D&A), чтобы обеспечить ответственное использование таких инструментов.

Почему ChatGPT вызывает столько споров, и что отличает его от прежних решений в области диалогового ИИ?

ChatGPT — это идеальный симбиоз двух «горячих» тем в ИИ: чат-ботов и языковой модели GPT-3. Благодаря их сочетанию достигается поразительно «живое» взаимодействие при создании контента, которое кажется почти человеческим. И то, и другое — результат значительных усовершенствований обеих технологий за последние пять лет.

С чат-ботом можно вести диалог в «почти человеческой» манере, а GPT-3 выдает будто бы осмысленный ответ, так что кажется, что система поняла вопрос, содержание и контекст. Всё вместе это создает эффект «зловещей долины»: там компьютер или человек? или человекоподобный компьютер? «Общение» может выглядеть юмористическим, глубоким и даже проницательным.

Впрочем, результат на выходе иногда может оказаться неверным, и уж во всяком случае, он никак не основан на человеческом понимании и разумности. Проблема тут в самих терминах «понимание» и «разумный», которые несут в себе чисто человеческий смысл, поэтому, когда ими описывают алгоритм, это ведет к серьезным искажениям. Было бы правильнее рассматривать чат-боты и большие языковые модели (LLM), подобные GPT, как всего лишь полезный инструмент для выполнения определенных задач, а не как интеллектуальные трюки. Успех зависит от правильного выбора применений этих технологий, приносящего реальный выигрыш организации.

Каковы возможности использования ChatGPT, особенно в корпоративной среде?

При высокоуровневом рассмотрении чат-боты, или диалоговые помощники, направляют пользователя при взаимодействии с источником информации. Чат-боты «в чистом виде» находят широкое применение, от клиентского обслуживания до содействия техническому персоналу в установлении причины отказа.

С высокоуровневой точки зрения ChatGPT представляет собой частный случай использования чат-бота для взаимодействия (чата), или «разговора», с информационным источником GPT, который обучен компанией OpenAI в определенной предметной области. От набора данных, использованного для обучения модели, зависят и выдаваемые ответы. Однако, как отмечено выше, GPT может непредсказуемо генерировать и ложную информацию, так что его допустимо использовать лишь там, где возможная ошибка терпима или исправима.

Базовые (без тонкой настройки) модели GPT могут использоваться во многих областях: компьютерного зрения, инженерии ПО, в научных исследованиях. В частности, они применялись для создания изображений по текстовому описанию, генерирования, анализа и аудита кода при вводе на естественном языке, в том числе и интерактивных контрактов, и даже в здравоохранении для создания новых лекарств и расшифровки последовательности генома для классификации болезней.

Каковы этические проблемы, связанные с ChatGPT и другими аналогичными моделями ИИ?

GPT это огромный шаг вперед в развитии ИИ, дающий уникальные преимущества значительного сокращения затрат и времени на обучение модели для конкретной предметной области. Но с ним приходят также риски и этические проблемы, связанные с такими аспектами, как:

  • Сложность: Большие языковые модели включают миллиарды, даже триллионы параметров и слишком велики для большинства организаций: для их обучения потребуются колоссальные вычислительные ресурсы, что будет затратно и негативно скажется с экологической точки зрения.
  • Концентрация власти: Эти модели создавались крупнейшими ИТ- компаниями с огромными инвестициями в НИОКР и с привлечением множества высококлассных специалистов, что привело к концентрации власти в руках немногих крупных и богатых корпораций, и это может вести к значительному дисбалансу в будущем.
  • Возможные злоупотребления: Готовые языковые модели снижают стоимость создания контента, поэтому становится проще создавать дипфейки, очень похожие на оригинал. Сюда входит всё от подмены голоса и лица в видео до подделок предметов искусства и прицельных атак. Связанные с этим серьезные этические проблемы могут нанести ущерб репутации или даже вызвать политические конфликты.
  • Эффект «черного ящика»: Эти модели всё еще требуют тщательной тренировки и, представляя собой «черный ящик», могут непредсказуемо выдать ложные результаты. Зачастую неясно, чем обусловлены ответы фактуальных моделей, что может вызвать дальнейшие искажения в наборах данных. Обеспечение однородности таких моделей может вести к единичной точке отказа.
  • Интеллектуальная собственность: Модель обучается на корпусе проведенных работ, и пока неясно, каким может быть правовой прецедент при стороннем использовании этого контента, если он был получен на основе интеллектуальной собственности других.

Как руководители служб D&A могут интегрировать базовые модели ИИ в рабочие процессы своей организации, соблюдая при этом этические нормы?

Начните с использования обработки естественного языка (NLP): классификации, реферирования и генерирования текста не для клиентов, — и выберите целевые, уже обученные модели, чтобы избежать дорогостоящей настройки и обучения. Предпочтительны применения, где результат на выходе проверяется человеком. Сформулируйте стратегию в документе, где описаны преимущества, риски, возможности и план внедрения базовых моделей ИИ, таких как GPT. Это поможет определить, перевешивают ли преимущества возможные риски в конкретных сценариях применения.

Используйте облачные API для взаимодействия с моделями, и выберите самую меньшую модель, которая обеспечит требуемую точность и производительность, чтобы снизить сложность использования, энергопотребление и общую стоимость владения. Следует отдать предпочтение вендорам, которые ответственно подходят к внедрению своих моделей, публикуя правила использования, обеспечивая их соблюдение, документируя известные уязвимости и недостатки и оперативно уведомляя о вредоносных действиях и возможных злоупотреблениях.

Источник: Пресс-служба компании Gartner