Добро пожаловать в новую эру создания в облаке с генеративным искусственным интеллектом на платформе AWS

Добро пожаловать в эру творчества в облаке с генеративным искусственным интеллектом на платформе AWS

Мы считаем, что генеративное искусственное интеллект имеет потенциал со временем преобразить практически каждое клиентское взаимодействие, которое мы знаем. Количество компаний, запускающих приложения генеративного искусственного интеллекта на AWS, значительно и быстро растет, включая такие компании, как adidas, Booking.com, Bridgewater Associates, Clariant, Cox Automotive, GoDaddy и LexisNexis Legal & Professional, чтобы назвать только некоторые. Инновационные стартапы, такие как Perplexity AI, полностью принимают AWS для генеративного искусственного интеллекта. Ведущие компании по искусственному интеллекту, такие как Anthropic, выбрали AWS в качестве своего основного облачного провайдера для задач, критически важных для миссии, и места для обучения будущих моделей. А глобальные поставщики услуг и решений, такие как Accenture, получают преимущества от настраиваемых приложений генеративного искусственного интеллекта, раскрывая возможности для своих внутренних разработчиков с Amazon CodeWhisperer.

Эти клиенты выбирают AWS, потому что мы фокусируемся на том, что всегда делали — берем сложные и дорогостоящие технологии, которые могут преобразовать клиентский опыт и бизнес, и демократизируем их для клиентов любого размера и технических способностей. Для этого мы инвестируем и быстро инновируем, чтобы предоставить самый полный набор возможностей на трех уровнях стека генеративного искусственного интеллекта. Нижний уровень – это инфраструктура для обучения Больших Языковых Моделей (LLM) и других Фондовых Моделей (FM) и создания выводов или прогнозов. Средний уровень – это простой доступ ко всем моделям и инструментам, которые клиенты нуждаются в создании и масштабировании приложений генеративного искусственного интеллекта с той же безопасностью, контролем доступа и другими функциями, которые они ожидают от сервиса AWS. И на верхнем уровне мы инвестируем в революционные приложения в ключевых областях, таких как генеративное кодирование на основе искусственного интеллекта. Помимо предоставления им выбора и, как они ожидают от нас, широты и глубины возможностей на всех уровнях, клиенты также говорят нам, что они ценят наш подход, ориентированный на данные, и доверяют, что мы создали все с нуля с предприятий-уровнем безопасности и конфиденциальностью.

На этой неделе мы сделали большой шаг вперед, объявив о множестве значительных новых возможностей на всех трех уровнях стека, чтобы сделать использование генеративного искусственного интеллекта повсеместно в бизнесе наших клиентов легким и практичным.

Нижний уровень стека: AWS Trainium2 – последнее дополнение для доставки наиболее передовой облачной инфраструктуры для генеративного искусственного интеллекта

Нижний уровень стека представляет собой инфраструктуру – вычисления, сети, фреймворки, сервисы, необходимые для обучения и запуска LLM и других FM. AWS инновирует, чтобы предложить самую передовую инфраструктуру для машинного обучения. Благодаря нашему долгосрочному сотрудничеству с NVIDIA, AWS была первой, кто привез графические процессоры в облако более 12 лет назад, и недавно мы стали первым ведущим облачным провайдером, представившим графические процессоры NVIDIA H100 с нашими инстанциями P5. Мы продолжаем инвестировать в уникальные инновации, которые делают AWS лучшим облаком для запуска графических процессоров, включая преимущества цена-производительность самой передовой системы виртуализации (AWS Nitro), мощную петабитную сеть с Elastic Fabric Adapter (EFA) и гипершкалирование с Amazon EC2 UltraClusters (тысячи ускоренных инстанций, совмещенных в одной доступной зоне и соединенных в неблокирующей сети, которая может обеспечить скорость до 3 200 Гбит/с для масштабирования МО). Мы также упрощаем доступ любому клиенту к очень востребованной вычислительной мощности графического процессора для генеративного искусственного интеллекта с помощью Amazon EC2 Capacity Blocks для МО – первой и единственной модели потребления в отрасли, позволяющей клиентам резервировать графические процессоры для будущего использования (до 500 развернутых в EC2 UltraClusters) для нагрузки МО с небольшой продолжительностью.

Несколько лет назад мы поняли, что чтобы продолжать продвигаться вперед в области цены и производительности, нам потребуется инновировать до самого кремня, и мы начали вкладывать в собственные чипы. Для МО в частности, мы начали с AWS Inferentia, нашего специализированного фишка для вывода. Сегодня мы находимся на втором поколении AWS Inferentia с помощью инстанций Amazon EC2 Inf2, которые оптимизированы специально для масштабных приложений генеративного искусственного интеллекта с моделями, содержащими сотни миллиардов параметров. Инстанции Inf2 предлагают наименьшую стоимость вывода в облаке, обеспечивая вдвое большую пропускную способность и в десять раз меньшую задержку по сравнению с инстанциями Inf1. Питаемые до 12 чипами Inferentia2, инстанции Inf2 являются единственными инстанциями EC2, оптимизированными для вывода, которые имеют высокоскоростное соединение между акселераторами, чтобы клиенты могли выполнять вывод быстрее и более эффективно (по более низкой цене), не ущербу для производительности или задержки, распределяя сверхбольшие модели по нескольким акселераторам. Компании, такие как Adobe, Deutsche Telekom и Leonardo.ai, получили отличные первые результаты и с нетерпением ждут возможности развернуть свои модели на Inf2 в масштабе.

С точки зрения обучения, экземпляры Trn1, работающие на специализированной чипе для обучения ML от AWS – AWS Trainium, оптимизированы для распределения обучения на несколько серверов, соединенных с помощью сети EFA. Компании, такие как Ricoh, обучали японскую LLM с миллиардами параметров за несколько дней. Databricks добивается до 40% лучшей стоимости производительности с помощью экземпляров, основанных на Trainium, для обучения моделей глубокого обучения большого масштаба. Однако с каждой неделей выходят новые и более мощные модели, и мы продолжаем расширять границы производительности и масштаба. Мы с радостью объявляем о AWS Trainium2 , разработанном для достижения еще лучшей производительности по цене при обучении моделей со сотнями миллиардов до триллионов параметров. Trainium2 должен обеспечивать до четырех раз более быструю производительность обучения, чем первое поколение Trainium, и при использовании в EC2 UltraClusters должен обеспечивать до 65 эксафлопс агрегированного вычисления. Это означает, что клиенты смогут обучать LLM с 300 миллиардами параметров за недели, а не за месяцы. Производительность, масштаб и энергоэффективность Trainium2 – некоторые из причин, по которым Anthropic выбрала AWS для обучения своих моделей и будет использовать Trainium2 для своих будущих моделей. Мы сотрудничаем с Anthropic в сфере дальнейшего развития с Trainium и Inferentia. Ожидается, что наши первые экземпляры Trainium2 будут доступны клиентам в 2024 году.

Также мы продолжаем работу над инструментальной цепочкой программного обеспечения для нашего ML-силикона, в частности, над развитием AWS Neuron, набором инструментов (SDK), который помогает клиентам получить максимальную производительность от Trainium и Inferentia. С момента запуска Neuron в 2019 году мы внесли значительные инвестиции в технологии компиляторов и фреймворков. Сегодня Neuron поддерживает множество самых популярных публично доступных моделей, включая Llama 2 от Meta, MPT от Databricks и Stable Diffusion от Stability AI, а также 93 из топ-100 моделей из популярного репозитория моделей Hugging Face. Neuron интегрируется с популярными фреймворками машинного обучения, такими как PyTorch и TensorFlow, а поддержка JAX ожидается в начале следующего года. Клиенты говорят нам, что Neuron позволяет им легко переключаться на обучение и вывод моделей с помощью Trainium и Inferentia с помощью всего нескольких строк кода.

Никто другой не предлагает такую ​​же комбинацию выбора лучших ML-чипов, сверхбыстрой сети, виртуализации и гипермасштабных кластеров. И поэтому не удивительно, что некоторые из самых известных стартапов в области генеративного AI, такие как AI21 Labs, Anthropic, Hugging Face, Perplexity AI, Runway и Stability AI, работают на AWS. Однако вам все равно нужны правильные инструменты, чтобы эффективно использовать эту вычислительную мощность для построения, обучения и выполнения LLM и других моделей FM эффективно и экономически выгодно. И для многих из этих стартапов Amazon SageMaker – это ответ. Независимо от того, создаете и обучаете новую, собственную модель с нуля или начинаете с одной из множества популярных публично доступных моделей, обучение – это сложный и дорогостоящий процесс. Также непросто экономично запускать эти модели. Клиенты должны получать большие объемы данных и подготавливать их. Это обычно включает много ручной работы по очистке данных, удалению дубликатов, обогащению и преобразованию. Затем им приходится создавать и поддерживать большие кластеры графических процессоров/ускорителей, писать код для эффективного распределения обучения моделей по кластерам, часто создавать резервные копии, приостанавливать, проверять и оптимизировать модель и ручным образом вмешиваться и устранять проблемы с оборудованием в кластере. Многие из этих проблем не новы, именно поэтому мы запустили SageMaker шесть лет назад – чтобы разбить множество преград, связанных с обучением и развертыванием моделей, и предоставить разработчикам более простой способ. Десятки тысяч клиентов используют Amazon SageMaker, и все больше из них, таких как LG AI Research, Perplexity AI, AI21, Hugging Face и Stability AI, обучают LLM и другие FM на SageMaker. Недавно Technology Innovation Institute (создатели популярных Falcon LLMs) обучили самую большую публично доступную модель – Falcon 180B – на SageMaker. С увеличением размеров и сложности моделей расширяется и спектр функций SageMaker.

За годы мы добавили более 380 революционных функций и возможностей в Amazon SageMaker, такие как автоматическая настройка моделей, распределенное обучение, гибкие варианты развертывания моделей, инструменты для работы с МО, инструменты для подготовки данных, хранилища признаков, блокноты, безшовную интеграцию с оценками, требующими участия человека на всем протяжении жизненного цикла МО, а также встроенные возможности для ответственного ИИ. Мы продолжаем быстро внедрять инновации, чтобы наши клиенты SageMaker могли продолжать строить, обучать и выполнять вывод для всех моделей, включая LLM и другие FM. Мы предоставляем клиентам еще больше простоты и экономии с помощью двух новых возможностей. Во-первых, чтобы упростить обучение, мы представляем Amazon SageMaker HyperPod , который автоматизирует большую часть процессов, необходимых для распределенного обучения высокого масштабного фонда (например, настройка распределенных библиотек обучения, масштабирование рабочих нагрузок обучения на тысячи ускорителей, обнаружение и исправление неисправных экземпляров), ускоряя обучение на 40%. В результате Perplexity AI, Hugging Face, Stability, Hippocratic, Alkaid и другие используют SageMaker HyperPod для создания, обучения или развития моделей. Во-вторых, мы представляем новые возможности, чтобы сделать вывод более экономичным снижая задержку. SageMaker теперь помогает клиентам развертывать несколько моделей на одном экземпляре, чтобы они могли совместно использовать вычислительные ресурсы, сокращая затраты на вывод в среднем на 50%. SageMaker также активно слежит за экземплярами, которые выполняют запросы на вывод, и интеллектуально направляет запросы на основе доступности экземпляров, что позволяет сократить время ожидания вывода на 20% в среднем. Конъектура, Salesforce и Slack уже используют SageMaker для размещения моделей благодаря этим оптимизациям вывода.

Средний слой стека: Amazon Bedrock добавляет новые модели и волну новых возможностей, что делает процесс создания и масштабирования генеративных AI-приложений еще более удобным и безопасным для клиентов

Хотя некоторые клиенты будут создавать свои собственные LLM и другие FM или разрабатывать из имеющихся публично доступных вариантов, многие не захотят тратить ресурсы и время на это. Для них средний слой стека предлагает эти модели в виде сервиса. Наше решение – Amazon Bedrock, позволяет клиентам выбирать ведущие модели от Anthropic, Stability AI, Meta, Cohere, AI21 и Amazon, настраивать их собственными данными и использовать все те же ведущие средства безопасности, контроля доступа и функции, с которыми они знакомы на AWS – все это через управляемый сервис. Мы сделали Amazon Bedrock доступным для всех в конце сентября, и отзывы клиентов были очень положительными. Клиенты со всего мира и разных отраслей с нетерпением ждут возможности использовать Amazon Bedrock. Например, adidas предоставляет разработчикам быстрые ответы на все вопросы, начиная от информации о “начале работы” и глубоких технических вопросов. Booking.com планирует использовать генеративный AI для составления индивидуальных рекомендаций по поездкам для каждого клиента. Bridgewater Associates разрабатывает ассистента-аналитика инвестиций на базе LLM для помощи в создании диаграмм, вычислении финансовых показателей и подведении итогов. Carrier делает более точный анализ использования энергии и предоставляет клиентам возможность сократить потребление энергии и уменьшить выбросы углерода. Clariant предоставляет сотрудникам возможность использов

Верхний слой стека: Продолжающаяся инновация делает генеративное искусственное интеллекта доступным для большего числа пользователей

На верхнем слое стека располагаются приложения, которые используют LLM и другие ФМ, чтобы вы могли использовать генеративное искусственное интеллекта в работе. Одной из областей, где генеративное искусственное интеллекта уже меняет игру, является кодирование. В прошлом году мы представили Amazon CodeWhisperer, который помогает вам создавать приложения быстрее и более безопасно благодаря генерации кодовых предложений и рекомендаций почти в режиме реального времени. Клиенты, такие как Accenture, Boeing, Bundesliga, The Cigna Group, Kone и Warner Music Group, используют CodeWhisperer для повышения производительности разработчиков — Accenture позволяет до 50 000 своих разработчиков программного обеспечения и ИТ-специалистов использовать Amazon CodeWhisperer. Мы хотим, чтобы как можно больше разработчиков могли получать преимущества продуктивности от генеративного искусственного интеллекта, поэтому CodeWhisperer предлагает рекомендации бесплатно для всех.

Однако, хотя инструменты AI-кодирования делают многое, чтобы облегчить жизнь разработчиков, их преимущества для производительности ограничены отсутствием знаний о внутренних кодовых базах, внутренних API, библиотеках, пакетах и классах. Один из способов подумать об этом — если вы нанимаете нового разработчика, даже если он с мировым именем, он не будет настолько производительным в вашей компании, пока не поймет ваши лучшие практики и код. На сегодняшний день инструменты AI-кодирования, работающие на искусственном интеллекте, используют этот принцип. Чтобы помочь с этим, мы недавно представили новую возможность в Amazon CodeWhisperer, которая безопасно использует внутреннюю кодовую базу клиента для предоставления более актуальных и полезных рекомендаций по коду. С помощью этой возможности CodeWhisperer становится экспертом в вашем коде и предоставляет рекомендации, которые более актуальны, чтобы еще больше сэкономить время. В исследовании, проведенном совместно с компанией Persistent, глобальной цифровой инжиниринговой и модернизации предприятий, мы обнаружили, что специализированные настройки помогают разработчикам выполнять задачи на 28% быстрее, чем общие возможности CodeWhisperer. Теперь разработчик в компании по технологиям здравоохранению может попросить CodeWhisperer «импортировать изображения МРТ, связанные с идентификатором клиента, и произвести их классификацию», чтобы обнаружить аномалии. Поскольку CodeWhisperer имеет доступ к кодовой базе, он может предоставлять гораздо более актуальные предложения, включающие местоположения импорта изображений МРТ и идентификаторы клиентов. CodeWhisperer полностью обеспечивает конфиденциальность настроек, и основанная на нем ФМ не использует их для обучения, защищая ценную интеллектуальную собственность клиентов. AWS — единственный основной облачный провайдер, который предлагает всем подобную возможность.

Представляем Amazon Q, генеративный AI-помощник, настроенный для работы

Разработчики — это, конечно, не единственные, кто использует генеративный искусственный интеллект — миллионы людей используют приложения для чата на основе генеративного искусственного интеллекта. То, что делают ранние поставщики в этой области, увлекательно и очень полезно для потребителей, но во многом они не совсем эффективны в рабочем окружении. Их общие знания и способности хороши, но они не знают вашу компанию, ваши данные, ваших клиентов, ваши операции или ваш бизнес. Это ограничивает то, как они могут вам помочь. Они также мало знают о вашей роли — о том, что вы делаете, с кем работаете, какую информацию используете и что имеете доступ к ней. Эти ограничения понятны, потому что эти помощники не имеют доступа к конфиденциальной информации вашей компании, и их создание не было направлено на удовлетворение требований конфиденциальности данных и требований безопасности, которые компании требуют для доступа к ним. Трудно приложить усилия по обеспечению безопасности после того, как это произошло и ожидать, что все будет хорошо работать. Мы считаем, что у нас есть лучший способ, который позволит каждому человеку в каждой организации безопасно использовать генеративный искусственный интеллект в своей повседневной работе.

Мы с радостью представляем Amazon Q, новый тип генеративного AI-помощника, специально предназначенного для работы и который можно настроить под ваш бизнес. Q может помочь вам получать быстрые и актуальные ответы на тревожащие вас вопросы, решать проблемы, генерировать контент и принимать меры, используя данные и знания, найденные в информационных репозиториях, коде и предприятий систем вашей компании. Когда вы общаетесь с Amazon Q, он предоставляет мгновенную, актуальную информацию и советы, которые помогут оптимизировать задачи, ускорить принятие решений и способствовать творчеству и инновациям на работе. Мы создали Amazon Q таким образом, чтобы он был безопасным и конфиденциальным, и он может понимать и уважать ваши существующие идентификаторы, роли и разрешения, используя эту информацию для персонализации взаимодействий. Если у пользователя нет разрешения на доступ к определенным данным без Q, он также не сможет получить к ним доступ, используя Q. Мы разработали систему Amazon Q таким образом, чтобы она полностью соответствовала требованиям корпоративных клиентов с самого начала — ни одно из их содержимого не используется для улучшения основных моделей.

Amazon Q – ваш экспертный помощник для работы на AWS: Мы обучили Amazon Q за 17 лет знаний и опыта работы с AWS, чтобы он мог изменить способ создания, развертывания и эксплуатации приложений и рабочих нагрузок на AWS. Amazon Q имеет чат-интерфейс в консоли управления AWS, документацию, вашу IDE (через CodeWhisperer) и комнаты чата вашей команды на Slack или других приложениях для общения. Amazon Q может помочь вам изучить новые возможности AWS, начать быстрее, изучить незнакомые технологии, разрабатывать архитектуры решений, исправлять проблемы, выполнять обновления и многое другое – он является экспертом в области хорошо спроектированного AWS, передовых методов, документации и реализации решений. Вот несколько примеров того, что вы можете делать со своим новым экспертным помощником AWS:

  • Получайте четкие ответы и руководство по возможностям, сервисам и решениям AWS: Спросите у Amazon Q: “Расскажите мне о агентах для Amazon Bedrock”, и Q даст вам описание функции плюс ссылки на соответствующие материалы. Вы также можете задать Amazon Q практически любой вопрос о том, как работает сервис AWS (например, «Какие есть ограничения масштабирования у таблицы DynamoDB?», «Что такое управляемое хранилище Redshift?») или о том, как лучше спроектировать ряд решений («Какие есть передовые методики построения архитектур событийно-ориентированных систем?»). И Amazon Q соберет компактные ответы, всегда указывая (и предоставляя ссылки на) свои источники.
  • Выбирайте лучший сервис AWS для вашего случая использования и быстро начинайте: Спросите Amazon Q: “Какие есть способы создания веб-приложения на AWS?”, и он предложит вам список потенциальных сервисов, таких как AWS Amplify, AWS Lambda и Amazon EC2 с преимуществами каждого из них. Оттуда вы можете узкими вопросами помочь Q понять ваши требования, предпочтения и ограничения (например, “Какой из этих сервисов будет лучше, если я хочу использовать контейнеры?” или “Должен ли я использовать реляционную или нереляционную базу данных?”). Завершив с “С чего начать?” Amazon Q определит некоторые основные шаги и укажет вам на дополнительные ресурсы.
  • Оптимизируйте использование вычислительных ресурсов: Amazon Q поможет вам выбрать экземпляры Amazon EC2. Если вы попросите его “Помогите мне найти подходящий экземпляр EC2 для выполнения видеокодирования в моем игровом приложении с максимальной производительностью”, Q предоставит вам список семейств экземпляров с пояснениями к каждому предложению. Кроме того, вы можете задавать любое количество уточняющих вопросов, чтобы найти наилучший выбор для вашей рабочей нагрузки.
  • Получайте помощь при отладке, тестировании и оптимизации вашего кода: Если вам встречается ошибка при написании кода в вашей IDE, вы можете попросить Amazon Q о помощи, сказав: “У моего кода ошибка ввода-вывода, не могли бы вы предложить исправление?” и Q сгенерирует код для вас. Если вам нравится предложение, вы можете попросить Amazon Q добавить исправление в ваше приложение. Поскольку Amazon Q находится в вашей IDE, он понимает код, над которым вы работаете, и знает, где вставить исправление. Amazon Q также может создавать модульные тесты (“Напиши модульные тесты для выбранной функции”), которые он может вставить в ваш код, и вы сможете запустить их. В конце концов, Amazon Q может подсказать вам способы оптимизации кода для повышения производительности. Попросите Q “Оптимизировать мой выбранный запрос DynamoDB”, и он, основываясь на понимании вашего кода, даст естественноязычное предложение о том, что нужно исправить, а также предоставит сопровождающий код, который можно реализовать одним кликом.
  • Диагностируйте и устраняйте проблемы: Если у вас возникают проблемы в консоли управления AWS, такие как ошибки разрешений EC2 или ошибки конфигурации Amazon S3, вы просто можете нажать кнопку “Устранить с помощью Amazon Q”, и он, исходя из понимания типа ошибки и сервиса, содержащего ошибку, предложит вам решение. Вы также можете попросить Amazon Q устранить неполадку в вашей сети (например, “Почему я не могу подключиться к моему экземпляру EC2 с использованием SSH?”) и Q проанализирует вашу конфигурацию от начала до конца и предоставит диагностику (например, “Этот экземпляр, кажется, находится в частной подсети, поэтому требуется установить общедоступность”).
  • Быстро ознакомьтесь с новым кодом: Когда вы общаетесь с Amazon Q в вашей IDE, он объединяет свой опыт в создании программного обеспечения с пониманием вашего кода – мощная связка! Раньше, если вы брали проект от кого-то другого или присоединялись к команде в первый раз, вам приходилось тратить часы на ручной просмотр кода и документации, чтобы понять, как он работает и что делает. Теперь, поскольку Amazon Q понимает код в вашей IDE, вы можете просто попросить его объяснить код (“Дайте мне описание того, что делает это приложение и как это работает”), и Q даст вам детали, такие как используемые кодом сервисы и функции (например, Q может ответить что-то вроде “Это приложение создает базовую систему обработки обращений в службу поддержки с использованием Python Flask и AWS Lambda” и затем описать каждую из его основных возможностей и способы их реализации, и многое другое).
  • Amazon Q – ваш бизнес-эксперт: Вы можете подключить Amazon Q к данным, информации и системам вашего бизнеса, чтобы он мог синтезировать все и предоставлять настраиваемую помощь в решении проблем, создании контента и выполнении действий, которые являются актуальными для вашего бизнеса. Подключение Amazon Q к вашему бизнесу – это просто. У него есть более 40 встроенных коннекторов для популярных корпоративных систем, таких как Amazon S3, Microsoft 365, Salesforce, ServiceNow, Slack, Atlassian, Gmail, Google Drive и Zendesk. Он также может подключаться к вашей внутренней интранет, вики и библиотеке процессов, и с помощью Amazon Q SDK вы можете создать соединение с любым внутренним приложением по вашему выбору. Укажите Amazon Q на эти репозитории, и он “подстроится” под ваш бизнес, улавливая и понимая семантическую информацию, которая делает вашу компанию уникальной. Затем вы получаете свое собственное удобное и простое веб-приложение Amazon Q, чтобы сотрудники вашей компании могли взаимодействовать с разговорным интерфейсом. Amazon Q также подключается к вашему провайдеру идентификации, чтобы понять пользователя, его роль и какие системы ему разрешен доступ, чтобы пользователи могли задавать подробные и тонкие вопросы и получать настраиваемые результаты, включающие только те данные, к которым они имеют доступ. Amazon Q генерирует точные и надежные ответы и идеи, основанные на материалах и знаниях, которые вы предоставляете, и вы можете ограничивать чувствительные темы, блокировать ключевые слова или фильтровать неподходящие вопросы и ответы. Вот несколько примеров того, что вы можете сделать с вашим новым экспертным помощником для бизнеса:

    • Получайте четкие, сверхважные ответы на основе данных и информации вашего бизнеса: Сотрудники могут задать Amazon Q любые вопросы, на которые они ранее могли искать ответы в различных источниках. Задайте вопросы “Какие последние руководства по использованию логотипа?” или “Как подать заявку на фирменную кредитную карту?” и Amazon Q синтезирует всю соответствующую информацию, которую найдет, и вернет быстрые ответы и ссылки на соответствующие источники (например, порталы бренда и репозитории логотипов, политики компании по расходам и заявки на карты).
    • Оптимизируйте повседневные коммуникации: Просто спросите, и Amazon Q может создать контент (“Создайте запись блога и три заголовка для социальных сетей, анонсирующие продукт, описанный в этой документации”), составить сводки для руководства (“Напишите резюме нашего протокола совещания с перечислением задач”), предоставить обновления по электронной почте (“Составьте письмо, выделяющее наши программы обучения для заказчиков в Индии за третий квартал”) и помочь структурировать встречи (“Составьте повестку дня для обсуждения последнего отчета о удовлетворенности клиентов”).
    • Завершайте задачи: Amazon Q может помочь вам выполнить определенные задачи, сокращая время, которое сотрудники тратят на рутинную работу, например, подачу запросов. Спросите у Amazon Q, чтобы “Кратко изложить отзывы клиентов о новом предложении по ценам в Slack”, а затем попросите Q использовать эту информацию и открыть тикет в Jira, чтобы обновить маркетинговую команду. Вы можете попросить Q “Кратко изложить транскрипт разговора” и затем “Открыть новое дело для клиента А в Salesforce”. Amazon Q поддерживает другие популярные инструменты для автоматизации работы, такие как Zendesk и Service Now.

    Amazon Q – в Amazon QuickSight: С Amazon Q в QuickSight, сервисе бизнес-аналитики AWS, пользователи могут задавать вопросы своим панелям управления, например: “Почему количество заказов увеличилось в прошлом месяце?” и получать визуализации и объяснения факторов, которые повлияли на увеличение. Аналитики могут использовать Amazon Q, чтобы сократить время, которое им требуется для создания панелей управления, с нескольких дней до нескольких минут с помощью простого запроса, например: “Покажите мне продажи по регионам по месяцам в виде столбчатой диаграммы”. Q моментально предоставляет эту диаграмму, и вы можете легко добавить ее на панель управления или продолжать общение с Q для уточнения визуализации (например, “Преобразовать столбчатую диаграмму в диаграмму Санкея” или “Показать страны вместо регионов”). Amazon Q в QuickSight также упрощает использование существующих панелей управления для информирования бизнес-интересов, выделения ключевых идей и упрощения принятия решений на основе данных. Например, пользователи могут запросить Amazon Q: “Составьте историю о том, как бизнес изменился за последний месяц для обзора бизнеса с руководством верхнего уровня”, и в считанные секунды Amazon Q предоставит историю на основе данных, которая визуально привлекательна и полностью настраиваема. Эти истории могут безопасно распространяться по всей организации для выравнивания заинтересованных сторон и принятия более обоснованных решений.

    Amazon Q – в Amazon Connect: В Amazon Connect, нашем сервисе контактных центров, Amazon Q помогает вашим агентам по обслуживанию клиентов предоставлять более качественное обслуживание. Amazon Q использует репозитории знаний, которые ваши агенты обычно используют для получения информации для клиентов, а затем агенты могут общаться с Amazon Q напрямую в Connect, чтобы получить ответы, которые помогут им быстро реагировать на запросы клиентов, не прибегая к поиску самих в документации. И, хотя общение с Amazon Q для получения мгновенных ответов – это замечательно, в обслуживании клиентов фразу “слишком быстро” не бывает. Вот почему Amazon Q In Connect превращает активный разговор с клиентом с агентом в запрос и автоматически предоставляет агенту возможные ответы, предлагаемые действия и ссылки на ресурсы. Например, Amazon Q может определить, что клиент обращается в компанию по прокату автомобилей, чтобы изменить бронирование, создать запрос для агента, чтобы быстро объяснить, как применяются политики платы за изменение компании, и провести агента через шаги, которые нужно выполнить для обновления бронирования.

    Amazon Q находится в цепочке поставок AWS (скоро): В рамках цепочки поставок AWS наш сервис аналитики цепи поставок Amazon Q помогает планировщикам спроса и предложения, менеджерам запасов и торговым партнерам оптимизировать свою цепочку поставок, суммируя и выделяя потенциальные риски нехватки товара или его избытка, а также визуализирует сценарии для решения проблем. Пользователи могут задавать вопросы Amazon Q, такие как “что”, “почему” и “что если”, основываясь на данных своей цепи поставок, и проводить диалоги обходительно обращаясь к сложным сценариям и выборам между различными решениями в цепи поставок. Например, клиент может спросить: “Что вызывает задержку в моих отправках и как можно ускорить процесс?” на что Amazon Q может ответить: “90% ваших заказов находятся на восточном побережье, и большая буря на юго-востоке вызвала задержку на 24 часа. Если вы отправите груз в порт Нью-Йорка вместо Майами, вы ускорите доставку и снизите затраты на 50%”.

    Наши клиенты быстро внедряют генеративное искусственное интеллект, обучая революционные модели на AWS, разрабатывая генеративные приложения на Amazon Bedrock со скоростью света и внедряя прорывные приложения в своих организациях, такие как Amazon Q. С нашими последними анонсами AWS предлагает клиентам еще больше производительности, выбора и инноваций на каждом уровне стека. Общий эффект всех возможностей, которые мы представляем на re:Invent, является важным этапом на пути к достижению интересной и значимой цели: сделать генеративный искусственный интеллект доступным для клиентов разных размеров и технических способностей, чтобы они могли переосмыслить и преобразовать возможное.

    Ресурсы