Повысьте качество своих самообслуживающихся помощников с помощью новых генеративных функций искусственного интеллекта в Amazon Lex

Улучшите качество работы ваших самообслуживающихся помощников с помощью новых генеративных функций искусственного интеллекта в Amazon Lex

В этом сообщении мы говорим о том, как генеративное искусственное интеллект меняет отрасль разговорного ИИ, позволяя создавать новые впечатления для клиентов и создателей ботов, а также о новых функциях в Amazon Lex, которые используют эти достижения.

С ростом спроса на разговорный ИИ разработчики ищут способы усовершенствовать своих чат-ботов, придавая им более человеческие взаимодействия и продвинутые возможности, такие как обработка FAQ. Недавние прорывы в генеративном ИИ приводят к значительным улучшениям в понимании естественного языка, что делает разговорные системы более интеллектуальными. Обучая большие модели нейронных сетей на наборах данных с триллионами токенов, исследователи ИИ разработали техники, которые позволяют ботам понимать более сложные вопросы, давать нюансированные и более естественные ответы, а также обрабатывать широкий спектр тематик. С помощью этих новых инноваций в генеративном ИИ вы можете создавать виртуальных ассистентов, которые кажутся более естественными, интуитивными и полезными во время текстовых или голосовых самообслуживающих взаимодействий. Быстрый прогресс в генеративном ИИ приближает автоматических чат-ботов и виртуальных ассистентов к истинно интеллектуальным, свободно текущим разговорам. С дальнейшими прогрессами в глубоком обучении и техниках нейронных сетей разговорные системы готовы стать еще более гибкими, понятными и похожими на людей. Это новое поколение ИИ-ассистентов способно обеспечить безупречный опыт самообслуживания в множестве сценариев использования.

Как Amazon Bedrock меняет сферу разговорного ИИ

Amazon Bedrock – это удобный способ создания и масштабирования приложений генеративного ИИ с использованием основных моделей (FMs). Amazon Bedrock предлагает широкий выбор FMs от ведущих поставщиков, так что клиенты AWS имеют гибкость и выбор для использования лучших моделей для своего конкретного случая использования.

В современном быстром мире от каждого бизнеса мы ожидаем быстрого и эффективного обслуживания клиентов. Однако обеспечение отличного обслуживания может быть значительно сложным, когда объем запросов превышает количество сотрудников, занятых их решением. Бизнесы могут эффективно справиться с этой задачей, предоставляя персонализированное обслуживание клиентов и в то же время использовать преимущества развития генеративного ИИ на основе больших языковых моделей (LLMs).

За годы AWS инвестировала в демократизацию доступа к ИИ, машинному обучению (ML) и генеративному ИИ. LLM могут быть крайне полезными в контактных центрах благодаря автоматическим ответам на часто задаваемые вопросы, анализу настроений и намерений клиентов для корректного переадресации звонков, созданию сводок бесед для помощи агентам и даже автоматическому созданию электронных писем или ответов в чате на обычные запросы клиентов. За счет выполнения рутинных задач и получения выводов из разговоров LLM позволяют контактным центрам сосредоточиться на оказании более высокой стоимости через персонализированное обслуживание и разрешение сложных проблем.

Улучшение опыта клиентов с помощью разговорных FAQ

Генеративный ИИ имеет огромный потенциал для быстрых, надежных ответов на часто задаваемые вопросы клиентов в разговорной форме. С доступом к авторизованным источникам знаний и LLM, ваш существующий бот Amazon Lex может предоставлять полезные, естественные и точные ответы на вопросы, выходящие за рамки задачи. Наш подход Retrieval Augmented Generation (RAG) позволяет Amazon Lex использовать как объем знаний, доступных в хранилищах, так и владение языком LLM. Вы просто можете задать свой вопрос в свободной форме разговорного языка и получить естественный настраиваемый ответ всего за несколько секунд. Новая функция разговорных FAQ в Amazon Lex позволяет разработчикам ботов и дизайнерам разговоров сосредоточиться на определении бизнес-логики, а не на разработке исчерпывающих разговоров на основе FAQ в боте.

Мы представляем встроенный QnAIntent, который использует LLM для запроса авторизованного источника знаний и предоставления осмысленного и контекстного ответа. Кроме того, разработчики могут настроить QnAIntent на отдельные разделы базы знаний, обеспечивая запросы пользователями только в отношении определенных частей содержания знаний в момент выполнения. Эта возможность отвечает потребностям высокорегулирующихся отраслей, таких как финансовые услуги и здравоохранение, чтобы предоставлять ответы только на соответствующем языке. Функция разговорных FAQ в Amazon Lex позволяет организациям улучшить показатели сдерживания, избегая высоких затрат из-за упущенных запросов и передачи к оператору.

Создание бота Amazon Lex с использованием описательного конструктора ботов

Создание беседующих ботов с нуля – это трудоемкий процесс, требующий глубоких знаний о том, как пользователи взаимодействуют с ботами, чтобы можно было предвидеть потенциальные запросы и кодировать соответствующие ответы. Сегодня разработчики диалогов и разработчики ботов тратят много дней, чтобы написать код, который поможет запускать все возможные действия пользователей (намерения), различные способы формулирования запросов пользователей (высказывания) и необходимую информацию от пользователя для выполнения этих действий (слоты).

Новая функция описательного создания ботов в Amazon Lex использует генеративный искусственный интеллект для ускорения процесса создания бота. Вместо написания кода разработчикам диалогов и разработчикам ботов теперь можно просто описывать на понятном английском языке, что они хотят, чтобы бот сделал (например, «Принять бронирования для моего отеля с использованием имени и контактной информации, даты путешествия, типа номера и информации о платеже»). Используя только такую простую подсказку, Amazon Lex автоматически создаст намерения, обучающие высказывания, слоты, запросы и поток диалога для описанного бота. Предоставляя базовый дизайн бота, эта функция существенно сокращает время и сложность создания диалоговых чат-ботов, позволяя создателю перераспределить усилия на тонкую настройку диалогового опыта.

Используя возможности генеративного искусственного интеллекта с помощью LLM-моделей, Amazon Lex позволяет разработчикам и не-техническим пользователям создавать боты, просто описывая свою цель. Вместо того чтобы детально программировать намерения, высказывания, слоты и т.д., разработчики могут предоставить естественноязыковую подсказку, и Amazon Lex автоматически сгенерирует базовый поток бота, готовый для дальнейшей настройки. Эта возможность изначально доступна только на английском языке, но разработчики могут дополнительно настраивать созданный искусственным интеллектом бот по мере необходимости перед развертыванием, что позволяет сэкономить много часов ручной разработки.

Улучшение пользовательского опыта с помощью вспомогательного разрешения слота

С появлением более широкого использования чат-ботов и интерактивных систем голосового ответа (IVR), пользователи ожидают высокого уровня интеллекта в самообслуживающемся опыте. Разрешение неоднозначных ответов, которые имеют более беседный характер, является важным для успешности, так как пользователи ожидают более естественных, похожих на человеческий опытов. С повышением доверия потребителей к возможностям чат-ботов также возникают ожидания более высокой производительности в области понимания естественного языка (NLU). Вероятно, в случае, если семантически простое или сложное высказывание не будет правильно разрешено в слот, уровень доверия пользователей может падать. В таких случаях LLM-модель может динамически помогать существующей модели NLU Amazon Lex и обеспечивать точное разрешение слотов, даже когда высказывание пользователя выходит за пределы модели слота. В Amazon Lex функция вспомогательного разрешения слота предоставляет разработчику бота еще один инструмент для повышения контроля.

Во время выполнения, когда NLU не может разрешить слот во время диалога, Amazon Lex вызывает выбранную разработчиком бота LLM-модель для помощи в разрешении слота. Если LLM-модель может предоставить значение при повторном разрешении слота, пользователь может продолжать разговор как обычно. Например, если при повторном разрешении слота бот задает вопрос «В каком городе живет страхователь?», и пользователь отвечает «Я живу в Спрингфилде», LLM-модель сможет разрешить значение как «Спрингфилд». Для этой функции поддерживаются следующие типы слотов: AMAZON.City, AMAZON.Country, AMAZON.Number, AMAZON.Date, AMAZON.AlphaNumeric (без использования регулярного выражения) и AMAZON.PhoneNumber, а также AMAZON.Confirmation. На данный момент эта функция доступна только на английском языке.

Улучшение опыта разработчика с помощью генерации обучающих высказываний

Одной из проблем, с которыми часто сталкиваются разработчики ботов и дизайнеры диалогов, является предвидение вариаций и разнообразия ответов при вызове намерения или запросе информации о слоте. При создании нового намерения разработчику бота необходимо предоставить образцы высказываний для обучения модели машинного обучения на типы ответов, которые она может и должна принимать. Часто бывает сложно предвидеть перестановки в формулировках и синтаксисе, используемых клиентами. С генерацией высказываний Amazon Lex использует основные модели, такие как Amazon Titan, чтобы сгенерировать обучающие высказывания одним щелчком, без необходимости создания специальных подсказок.

Генерация высказываний использует имя намерения, существующие высказывания и, при необходимости, описание намерения для создания новых высказываний с помощью LLM-модели. Разработчики ботов и дизайнеры диалогов могут редактировать или удалять созданные высказывания перед их принятием. Эта функция работает как с новыми, так и с существующими намерениями.

Заключение

Недавние достижения в области генеративного искусственного интеллекта безусловно сделали автоматизированный опыт потребителей лучше. С помощью Amazon Lex мы посвящены внедрению генеративного искусственного интеллекта во все аспекты процесса создания ботов и пользовательского опыта. Описанные в этой статье функции – это только начало, и мы с нетерпением ждем, чтобы показать вам, что еще придет.

Чтобы узнать больше, обратитесь к документации Amazon Lex и попробуйте эти функции на консоли Amazon Lex.