5 примеров использования генеративного искусственного интеллекта, которые компании могут внедрить уже сегодня

5 примеров применения генеративного искусственного интеллекта, которые компании могут использовать уже сегодня

Начинаете работу с LLMs? Вот 5 популярных приложений, которые команды по данным в OpenAI, Vimeo и других компаниях в настоящее время осваивают.

Изображение от автора.

Шум вокруг генеративного искусственного интеллекта реален, и команды по данным и машинному обучению это чувствуют.

В различных отраслях руководители настаивают на создании продуктов, работающих на базе искусственного интеллекта, которые помогут экономить время, увеличивать доходы или давать им конкурентное преимущество.

Известные технологические гиганты, такие как OpenAI, Google, Amazon и Microsoft, атакуют рынок созданными с помощью больших языковых моделей (LLMs) и моделей диффузии. Они обещают помочь компаниям анализировать данные в масштабе, подводить итоги и синтезировать информацию, создавать контент и иначе трансформировать свой бизнес.

Но с чего на самом деле начинают большинство компаний, когда дело доходит до внедрения генеративного искусственного интеллекта? Какие сценарии использования генеративного искусственного интеллекта реалистичны, достижимы и действительно приносят возврат инвестиций?

Мы глубоко погрузились в стратегии ранних принципиалов, чтобы узнать, как компании используют эту технологию сегодня — и что нужно команде по данным для реализации ген-ИИ в масштабе.

Строим более эффективные рабочие потоки для сотрудников сферы знаний

В различных отраслях компании осваивают ранние примеры использования генеративного искусственного интеллекта, автоматизируя и упрощая трудоемкие процессы для сотрудников сферы знаний.

Благодаря способности LLMs понимать и извлекать информацию из неструктурированных данных, бизнесы обнаруживают ценность подведения итогов, анализа, поиска и выявления удобоваримых выводов из большого объема внутренней информации. Рассмотрим, какие практические секторы внедряют технологию ген-ИИ.

Юридические фирмы

В юридической отрасли системы на базе искусственного интеллекта помогают юридическим фирмам:

  • Автоматизировать контроль за соблюдением регулирования, чтобы клиенты всегда были в курсе
  • Составлять и проверять стандартные документы, такие как завещания и контракты
  • Помогать в проведении проверки юридической деятельности путем анализа больших объемов документов для выявления потенциальных рисков и проблем
  • Анализировать контракты для выявления возможных проблем или предложения изменений
  • Помогать в юридических исследованиях, выявляя, анализируя и подводя сводки по существенной информации из судебной практики, законов, журналов, нормативных актов и других публикаций

Технические решения: Юридические команды применяют специализированные решения, включающие настраиваемые модели или точно настроенные LLMs для юридической системы, включая CoCounsel (под управлением GPT-4), Harvey и программное обеспечение Thomson Reuters.

Практический пример: Юридическая фирма Макфарланс из Лондона использует Harvey для поддержки исследований, анализа и подведения итогов документов, составления первых черновых писем и записок, включая клиентскую работу — при этом его работу проверяют юристы.

Финансовые услуги

В далеком 2023 году Wall Street институты, такие как Goldman Sachs и Citigroup, запретили использование ChatGPT из-за проблем с конфиденциальностью данных. Несмотря на эти «анти-ИИ» заголовки, финансовая отрасль давно использует алгоритмы машинного обучения — такие, например, как алгоритмы обнаружения мошенничества и мгновенного принятия кредитных решений. А финансовые продукты и фирмы обладают огромным потенциалом для применения генеративного искусственного интеллекта.

На данный момент Databricks оценивает, что 80% примеров использования генеративного искусственного интеллекта в финансовых услугах направлены на оптимизацию процессов для сокращения времени и ресурсов. Сюда входит:

  • Разговорные чат-боты по финансам, которые могут использовать внутренние документы в качестве базы знаний
  • Автоматизация основных функций бухгалтерии, таких как захват и обработка счетов-фактур
  • Анализ, суммирование и извлечение информации из документов, таких как годовые отчеты, страховые контракты и транскрипты заседаний совета директоров

Кроме того, лидеры отрасли считают, что возможность искусственного интеллекта обнаруживать и прекращать финансовые преступления и мошенничество является чрезвычайно убедительным приложением.

Технические решения: Начинают появляться настраиваемые решения, включая BloombergGPT, 50-миллиардный параметризованный LLM, специально разработанный для финансовых услуг.

Пример использования в реальной жизни: В сентябре 2023 года Morgan Stanley запустил помощника на основе искусственного интеллекта, который поддерживает финансовых консультантов, предоставляя легкий доступ к внутренней базе данных исследовательских отчетов и документов. Сотрудники могут использовать инструмент для задания вопросов о рынках, внутренних процессах и рекомендациях.

Команды по продажам

Команды по продажам и маркетингу все больше принимают генеративный искусственный интеллект с применением в таких случаях:

  • Написание первых черновиков электронных писем, посадочных страниц, блог-постов и другого контента
  • Персонализация контента для индивидуального взаимодействия на основе данных CRM
  • Анализ взаимодействий по продажам для обучения представителей
  • Автоматизация оценки потенциальных клиентов на основе демографических, фирмографических и цифровых характеристик
  • Суммирование взаимодействий с звонков и видеовстреч

Технические решения: Продажные платформы, такие как Gong, используют собственные модели для создания сводок звонков и рекомендаций следующих шагов, чтобы помочь клиентам в их покупательском пути. А Einstein Copilot от Salesforce автоматически создает ответы на электронные письма и обновления аккаунта на основе конкретного контекста клиента.

Пример использования в реальной жизни: Платформа для вовлечения клиентов 6sense использует AI-обеспеченное решение для общения по электронной почте в их коммуникациях с потенциальными клиентами — что составляет 10% новой генерации линий размещения для аккаунтов, заинтересованных в маркетинге.

Автоматизация инжиниринга и процессов обработки данных

Автоматизируя повторяющиеся или однообразные аспекты кодирования и инженерии данных, генеративный искусственный интеллект упрощает рабочие процессы и повышает продуктивность как для программистов, так и для специалистов по данным.

Например, команды могут использовать генеративный искусственный интеллект для:

  • Автоматической генерации фрагментов кода и проверки кода на ошибки
  • Автоматической обнаружения и исправления незначительных ошибок или предсказания мест возможных ошибок
  • Генерации большого объема синтетических данных, которые повторяют реальную информацию, чтобы инженеры могли тестировать модели, не беспокоясь о конфиденциальности данных
  • Автоматической генерации подробной документации по коду и проектам
  • Более простой обновления устаревшего программного обеспечения на языках, таких как COBOL (который широко используется в финансовом секторе и является существенной статьей затрат), на современные языки

LLM также внедряются непосредственно в решения для разработчиков. Например, в рамках платформы Monte Carlo мы используем OpenAI API для поддержки двух функций — Fix with AI и Generate with AI — которые помогают командам лучше организовать наблюдение за данными. Fix with AI использует LLM для обнаружения ошибок в проверке качества данных, а Generate with AI использует LLM для генерации предложений новых проверок качества данных.

Даже сама OpenAI использует LLM для поддержки функций DevOps и внутренних функций. Как рассказал нам руководитель специалистов по искусственному интеллекту Янив Марковский, их команда использует модели GPT, чтобы агрегировать и переводить операционные сигналы, такие как журналы серверов или события в социальных сетях, для понимания того, что испытывают их клиенты при использовании продуктов. Это гораздо более удобно, чем традиционный подход, когда команда по обеспечению надежности сайта ручным образом исследует и составляет список инцидентов.

Технические решения: Инженерные команды все больше ориентируются на инструменты, такие как GitHub Copilot и Amazon’s CodeWhisperer, чтобы поддерживать свои ежедневные рабочие процессы. Разработчики могут указать естественноязыковой запрос и получить фрагменты кода и предложения на таких языках, как Python, JavaScript, Ruby и других.

Реальный пример использования: Команда по инженерии данных одной глобальной медиа-компании использует LLM для классификации pull-запросов на различные уровни требуемой триажировки в их рабочих процессах dbt. В зависимости от классификации изменений, модель вызывает различные команды сборки. Это значительно упрощает рабочие процессы разработки, поскольку альтернативным вариантом для команды было жесткое кодирование сложного анализа для определения соответствующей команды для тестирования изменений.

Демократизация данных с остальной частью вашей компании

В мире данных основную возможность для компаний использовать генеративный ИИ можно найти в увеличении доступа к данным для неспециалистов. LLM предоставляют возможность сотрудникам из разных отделов использовать естественноязыковые запросы, которые могут генерировать SQL-запросы для получения конкретных данных или ответов на сложные вопросы.

Это именно тот случай, о котором недавно рассказал Адам Конвей, старший вице-президент по продуктам в Databricks.

«Я видел примеры отраслей с огромным количеством документации, которые хотят предоставить возможность своим внутренним компаниям извлекать ответы из десятков тысяч страниц записей», – сказал Адам. «Это верный подход, потому что риск низкий – он позволяет вам попробовать на практике, приносит много ценности и не создает много рисков. У нас в Databricks есть внутренний чат-бот, который помогает сотрудникам разобраться и просмотреть свои данные. И мы видим в этом много ценности».

Технические решения: Платформы, такие как Databricks, работают над встраиваемыми функциональностями – недавно они объявили о запуске LakehouseIQ, который обещает возможность запроса данных на естественном языке.

В то время как эти технологии все еще развиваются, команды по работе с данными могут настраивать модели на основе внутренних документов или баз знаний для создания индивидуальных возможностей для своих организаций или использовать генеративный ИИ, чтобы помочь сотрудникам своими запросами, как описано в нашем реальном примере использования.

Реальный пример использования: Платформа для онлайн-шопинга в режиме прямой трансляции Whatnot настоятельно рекомендует каждому сотруднику знать SQL, чтобы он мог обрабатывать свои данные, создавать собственные панели инструментов и писать собственные модели dbt – даже в неотраслевых отделах, таких как маркетинг, финансы и операции. Генеративный ИИ играет роль в обучении сотрудников.

Как рассказал нам руководитель по инженерии Эммануэль Фуэнтес: «Это помогает людям становиться готовыми к действию. Если у них нет опыта работы с SQL, это помогает им быстро освоиться, что действительно замечательно. Если кто-то, например, не знает, как использовать функцию окон, он может описать, что он пытается сделать, получить SQL-фрагмент и заменить нашу таблицу данных. Это похоже на то, как если бы у человека был репетитор, который не умеет делать продвинутый анализ».

Масштабирование службы поддержки клиентов

Команды службы поддержки клиентов заслуживают особого внимания как особенно подходящая аудитория для рабочих процессов, поддерживаемых LLM. Путем включения семантического поиска в базовые чат-боты и рабочие процессы команды по работе с данными могут обеспечить доступ к информации, создание ответов и решение запросов со стороны службы поддержки клиентов гораздо быстрее.

Технические решения: Некоторые CX-решения уже включают возможности генеративного ИИ в свои платформы. Например, Oracle Fusion Cloud CX использует LLM, который использует внутренние данные, чтобы помочь агентам быстро генерировать ответы на запросы обслуживания на основе истории взаимодействий клиента и предлагать новое содержание базы знаний в ответ на появляющиеся проблемы обслуживания.

Реальный пример использования: Инженеры Vimeo использовали генеративный ИИ, чтобы создать прототип помощника в области технической поддержки. Инструмент индексирует статьи помощи, размещенные на платформе Zendesk, в векторном хранилище (более подробно о векторных базах данных ниже) и подключает это хранилище к поставщику LLM. Если клиент не получает удовлетворительного ответа от чат-бота, диалог отправляется в LLM для дальнейшей помощи. LLM переформулирует проблему в один вопрос, делает запрос в векторное хранилище для статей с похожим содержанием и получает соответствующие документы. После этого LLM генерирует окончательный, краткий ответ для клиента.

Поддержка перевода и языковых услуг

Наконец, генеративный искусственный интеллект (AI) позволяет автоматизировать почти мгновенные переводы и языковую поддержку в организациях, которые тратят ежегодно около $60 миллиардов на языковые услуги — но переводят только долю контента, который они производят. Многослойные языковые модели (LLMs), такие как GPT-4, имеют потенциал помочь командам предоставлять многоязычное обслуживание клиентов, проводить глобальный анализ настроений и локализацию контента в масштабе.

Технические решения: В настоящий момент большинство моделей могут не иметь достаточно данных для обучения в режиме реального времени на редко используемых языках или для улавливания коллоквиализмов или терминов, характерных для отдельной отрасли, поэтому командам может потребоваться настройка моделей для получения надежных результатов. Тем не менее, Google работает над универсальной речевой моделью, обученной на более чем 400 языках, с целью создания универсального переводчика.

Реальный пример использования: В уникальном варианте классической модели перевода компания в области здравоохранения Vital создала переводчик на основе искусственного интеллекта (AI), позволяющий мгновенно преобразовывать высокотехничные медицинские термины в понятный язык для пациентов.

Три ключевых фактора, которые следует учесть при начале работы с ген AI

Когда ваша команда начинает осваивать постоянно меняющуюся область ген AI, следует учесть несколько ключевых факторов.

Дополните ваш технический стек

Наличие правильного технического стека, поддерживающего ген AI, поможет вашей команде быстро масштабироваться и создавать ценность. В дополнение к обычным компонентам современного набора данных, стоит рассмотреть добавление следующих элементов:

Векторные базы данных

Векторные базы данных в настоящее время являются одним из наиболее эффективных инструментов, позволяющих командам строить масштабируемые приложения с использованием LLM компании OpenAI. Эти базы данных позволяют использовать векторное вложение, содержащее семантическую информацию, которая помогает искусственному интеллекту понять отношения и закономерности в ваших данных.

Команды могут использовать автономные векторные базы данных, такие как Pinecone или Zilliz, или использовать возможности векторного вложения в своих существующих решениях хранения данных, таких как Databricks и Snowflake.

Настройка моделей

Для команд с особыми потребностями настройка моделей — обучение предварительно обученной модели на наборе данных, специфичном для ваших потребностей —, вероятно, будет следующим шагом после использования векторного вложения. Инструменты, такие как Tensorflow и HuggingFace, предоставляют хорошие возможности для настройки ваших моделей.

Обработка неструктурированных или потоковых данных

Генеративный искусственный интеллект обычно приносит наибольшую пользу, извлекая информацию из больших объемов неструктурированных данных. Если вы еще не внедрили обработку неструктурированных данных в свой стек, вам, скорее всего, понадобится инструмент типа Spark — или Kafka, если вы решите работать с потоковыми данными.

Обеспечьте правильную команду и ресурсы

Создание проекта на основе искусственного интеллекта требует времени и ресурсов. Несмотря на то, что ваш генеральный директор может быть готов потратить любое количество средств на внедрение ген AI в ваш продукт или бизнес, важно иметь реалистическое представление о времени, необходимом для этого, и о затратах.

Сформируйте свою команду

Вероятнее всего, вам придется направить сотрудников на создание прототипа или проверку концепции, а не нанимать опытных разработчиков ген AI с самого начала (во-первых, потому что это новое поле, и опытные разработчики ген AI на самом деле еще не существуют). Обычно эти команды-тигры включают в себя инженеров по обработке данных с некоторым опытом в машинном обучении.

Иными словами, некоторым из ваших ценных игроков потребуется перенаправление срываться с немедленной доходоносной работы, чтобы приступить к вашему проекту по внедрению искусственного интеллекта. Учтите неизбежные возможные потери и включите их в общее планирование — и найдите делового поддержателя, который может выступать за этот сдвиг при выделении ресурсов и при этом поддерживать близкую связь вашей команды с бизнес-ценностью.

Учтите затраты на оборудование

Если вы планируете настраивать свою модель и у вас еще нет опыта в области управления жизненным циклом моделирования, обратите внимание на расходы на вычисления, которые возникнут при использовании своей собственной обучающей выборки. Это может значительно увеличить количество часов GPU.

Приоритезируйте качество данных

Вне зависимости от вашего технологического стека, выбранной модели или вашего случая использования, одна истина остается неизменной: вам необходимо обеспечить качество входных и выходных данных. Иначе вы рискуете подвергнуть внутренние команды воздействию плохих данных, как непосредственно через естественноязыковые подсказки, так и косвенно через способности искусственного интеллекта.

Генеративный искусственный интеллект имеет потенциал преобразовать каждый бизнес, но он не лишен рисков и возможных проблем. Тестирование данных, мониторинг данных, управление искусственным интеллектом и наблюдение за данными позволяют генерировать огромную ценность с помощью ГИИ, а не попадать в неловкие ситуации с данными.

Отдельное спасибо Нарену Венкатраману, Яниву Марковски и Эммануэлю Фуэнтесу за то, что они нашли время поговорить с нами для этой статьи.