Accenture создает решение Knowledge Assist с использованием генеративных ИИ-сервисов на AWS

Accenture создает инновационное решение Knowledge Assist на основе генеративных ИИ-сервисов на платформе AWS

Этот пост совместно написан с Ilan Geller и Shuyu Yang из Accenture.

Сегодня предприятия сталкиваются с серьезными проблемами при использовании своей информации и баз знаний для внутренних и внешних операций бизнеса. В связи с постоянно изменяющимися операциями, процессами, политиками и требованиями соответствия, сотрудникам и клиентам может быть крайне сложно быть в курсе последних новостей. В то же время, неструктурированный характер большей части этого контента делает поиск ответов с использованием традиционных методов затратным по времени.

Внутренне сотрудники зачастую тратят бесчисленные часы на поиски информации, необходимой для выполнения своих задач, что приводит к разочарованию и снижению производительности. И когда они не могут найти ответы, им приходится эскалировать проблемы или принимать решения без полного контекста, что может создавать риски.

С точки зрения клиентов, им также может быть сложно найти необходимую информацию. Хотя базы знаний предприятий со временем улучшили опыт клиентов, они могут быть по-прежнему неудобными в использовании. Независимо от того, ищет ли клиент ответы на вопросы, связанные с продуктом, или нуждается в информации о рабочих часах и местонахождении, плохой опыт может вызвать разочарование и, что еще хуже, уход клиента.

В обоих случаях, по мере усложнения управления знаниями, генеративный искусственный интеллект представляет собой переломную возможность для предприятий связать людей с информацией, необходимой для работы и инноваций. С правильной стратегией такие интеллектуальные решения могут преобразовать процессы захвата, организации и использования знаний в предприятии.

Для решения этой проблемы Accenture сотрудничает с AWS и создала инновационное генеративное AI-решение под названием Knowledge Assist. С помощью генеративных AI-сервисов AWS команда разработала систему, способную обрабатывать и понимать огромные объемы неструктурированного корпоративного контента.

Пользователям теперь нет необходимости использовать традиционный поиск по ключевым словам – они могут задавать вопросы и получать точные ответы в простом разговорном интерфейсе. Генеративный AI понимает контекст и взаимосвязи в базе знаний, чтобы предоставлять персонализированные и точные ответы. Постепенно, обрабатывая все больше запросов, система улучшает свой языковой анализ с помощью алгоритмов машинного обучения (ML).

С момента запуска этой системы поддержки AI компании заметили значительное улучшение удержания и продуктивности знаний сотрудников. Благодаря быстрому и точному доступу к информации и возможности самообслуживания сотрудники тратят на обучение новых сотрудников на 50% меньше времени и снижают обращения на 40%.

С помощью генеративного AI предприятия могут преобразовать способы захвата, организации и обмена знаниями внутри организации. Разблокируя свои существующие базы знаний, компании могут повысить производительность сотрудников и удовлетворенность клиентов. Как показывает сотрудничество Accenture с AWS, будущее управления знаниями в предприятии зависит от систем, основанных на искусственном интеллекте и развивающихся взаимодействиях между людьми и машинами.

Accenture сотрудничает с AWS, чтобы помочь клиентам развертывать Amazon Bedrock, использовать передовые основные модели, такие как Amazon Titan, и развертывать передовые технологии, такие как Amazon SageMaker JumpStart и Amazon Inferentia, вместе с другими ML-сервисами AWS.

В этом посте представлен обзор генеративного AI-решения, разработанного Accenture для промышленного случая использования с использованием Amazon Bedrock и других сервисов AWS.

Обзор решения

Крупный клиент из сферы общественного здравоохранения обслуживает миллионы граждан каждый день, и они требуют легкого доступа к актуальной информации в постоянно меняющейся ситуации в области здравоохранения. Accenture внедрила эту функциональность генеративного AI в существующего бота FAQ, позволяя чат-боту отвечать на более широкий спектр вопросов пользователей. Расширение возможностей граждан получения необходимой информации самостоятельно экономит время и средства управления здравоохранением, сокращает время обращения в колл-центры. Основные особенности решения включают:

  • Гибридный подход к намерениям – использует генеративные и предварительно обученные намерения
  • Многоязычная поддержка – ведет диалоги на английском и испанском языках
  • Анализ разговоров – отчеты о потребностях, настроениях и вопросах пользователей
  • Естественные разговоры – поддерживает контекст с использованием естественной обработки языка (NLP)
  • Прозрачные ссылки – направляет пользователей к источнику информации

Решение по генерации искусственного интеллекта компании Accenture предлагает следующие преимущества по сравнению с существующими или традиционными фреймворками чатботов:

  • Генерирует точные, актуальные и естественно звучащие ответы на запросы пользователей быстро
  • Запоминает контекст и отвечает на последующие вопросы
  • Обрабатывает запросы и генерирует ответы на нескольких языках (например, английском и испанском)
  • Постоянно учится и улучшает ответы на основе отзывов пользователей
  • Легко интегрируется с вашей существующей веб-платформой
  • Поглощает обширный набор знаний предприятия
  • Отвечает в стиле, близком к человеческому
  • Эволюция знаний постоянно доступна с минимальными усилиями или без них
  • Использует модель оплаты по факту использования без предварительных затрат

Высокоуровневая рабочая схема этого решения включает следующие шаги:

  1. Пользователи создают простую интеграцию с существующими веб-платформами.
  2. Данные заносятся в платформу в виде массовой загрузки на день 0 и последующей инкрементной загрузки на дни 1+.
  3. Запросы пользователей обрабатываются в режиме реального времени, масштабируясь по требованию пользователя.
  4. Диалоги сохраняются в базах данных приложений (Amazon Dynamo DB) для поддержки многораундовых диалогов.
  5. Модель Anthropic Claude фондации вызывается через Amazon Bedrock для генерации ответов на запросы на основе наиболее актуального контента.
  6. Модель Anthropic Claude фондации используется для перевода запросов и ответов с английского на другие желаемые языки для поддержки многоязычных диалогов.
  7. Модель Amazon Titan фондации вызывается через Amazon Bedrock для создания векторных эмбеддингов.
  8. Актуальность контента определяется на основе сходства между векторными эмбеддингами и запросом пользователя с использованием векторной базы данных Pinecone.
  9. Контекст вместе с вопросом пользователя добавляется, чтобы создать подсказку, которая передается в качестве входных данных для модели Anthropic Claude. Сгенерированный ответ предоставляется пользователю через веб-платформу.

Следующая схема иллюстрирует архитектуру решения.

Поток архитектуры можно понять в двух частях:

  • Офлайн-загрузка данных в Amazon Kendra
  • Онлайн-поток конечных пользователей

В следующих разделах мы более подробно рассмотрим различные аспекты решения и его разработку.

Выбор модели

Процесс выбора модели включал регрессионное тестирование различных моделей, доступных в Amazon Bedrock, включая AI21 Labs, Cohere, Anthropic и Amazon foundation модели. Мы проверили поддерживаемые варианты использования, атрибуты модели, максимальное количество токенов, стоимость, точность, производительность и языки. На основе этого мы выбрали модель Claude-2, которая наиболее подходит для этого случая использования.

Источник данных

Мы создали индекс Amazon Kendra и добавили источник данных с помощью коннекторов для веб-паука с корневым URL-адресом и глубиной анализа каталогов на два уровня. В индекс Amazon Kendra были загружены несколько веб-страниц и использованы в качестве источника данных.

Процесс запроса и ответа чатбота GenAI

Шаги в этом процессе представляют собой полноценное взаимодействие с запросом от Amazon Lex и ответом от крупной языковой модели (LLM):

  1. Пользователь отправляет запрос в приложение конверсации фронт-энда, размещенное в хранилище данных Amazon Simple Storage Service (Amazon S3) через Amazon Route 53 и Amazon CloudFront.
  2. Amazon Lex понимает намерение и направляет запрос в оркестратор, размещенный в функции AWS Lambda.
  3. Функция оркестратора Lambda выполняет следующие шаги:
    1. Функция взаимодействует с базой данных приложения, размещенной в управляемой базе данных DynamoDB. База данных хранит идентификатор сессии и идентификатор пользователя для истории диалогов.
    2. Отправляется еще один запрос в индекс Amazon Kendra для получения пяти наиболее релевантных результатов поиска для построения соответствующего контекста. С использованием этого контекста строится модифицированная подсказка, необходимая для модели LLM.
    3. Устанавливается соединение между Amazon Bedrock и оркестратором. К модели Amazon Bedrock Claude-2 отправляется запрос для получения ответа от выбранной модели LLM.
  4. Данные обрабатываются из ответа LLM, и пользователю отправляется ответ.

Онлайн отчетность

Процесс онлайн отчетности состоит из следующих шагов:

  1. Пользователи взаимодействуют с чатботом через предварительный уровень CDN CloudFront.
  2. Каждое взаимодействие запрос/ответ обеспечивается AWS SDK и отправляет сетевой трафик в Amazon Lex (компонент NLP бота).
  3. Метаданные о парах запрос/ответ регистрируются в Amazon CloudWatch.
  4. Лог-группа CloudWatch настроена с фильтром подписки, который отправляет логи в Amazon OpenSearch Service.
  5. После доступности в OpenSearch Service, логи могут быть использованы для генерации отчетов и панелей приборов с использованием Kibana.

Заключение

В этом посте мы продемонстрировали, как Accenture использует generative AI-сервисы AWS для внедрения комплексного подхода к цифровой трансформации. Мы выявили пробелы в традиционных платформах вопросно-ответной системы и усилили генеративный интеллект в ее структуре для более быстрого времени ответа и непрерывного улучшения системы при взаимодействии с пользователями по всему миру. Свяжитесь с командой Accenture Center of Excellence, чтобы более подробно изучить решение и развернуть его ваших клиентов.

Эта платформа Knowledge Assist может быть применена в различных отраслях, включая, но не ограничиваясь, медицинские науки, финансовые услуги, производство и другие. Эта платформа обеспечивает естественные, человекоподобные ответы на вопросы с использованием безопасных знаний. Эта платформа позволяет повышать эффективность, продуктивность и совершать более точные действия для ее пользователей.

Совместная работа строится на 15-летнем стратегическом партнерстве между компаниями и использует те же проверенные механизмы и ускорители, созданные Accenture AWS Business Group (AABG).

Свяжитесь с командой AABG по адресу accentureaws@amazon.com, чтобы добиться бизнес-результатов, превратившись в интеллектуальную данных предприятия на AWS.

Для получения дополнительной информации о generative AI на AWS с использованием Amazon Bedrock или Amazon SageMaker, мы рекомендуем следующие ресурсы:

Вы также можете подписаться на рассылку AWS generative AI, которая включает образовательные материалы, блоги и обновления сервисов.