Объявляем о новых инструментах, чтобы помочь каждому бизнесу принять Генеративный ИИ

Новые инструменты для использования Генеративным ИИ в различных сферах бизнеса

От стартапов до предприятий, организации всех размеров начинают использовать генеративное искусственное интеллекта. Они хотят использовать его преимущества и перенести импульс из бета-версий, прототипов и демонстраций в повседневные повышения эффективности и инновации. Но что нужно организациям, чтобы внедрить генеративное ИИ в корпоративную среду и превратить его в реальность? Когда мы беседуем с клиентами, они говорят нам, что им необходимы безопасность и конфиденциальность, масштабируемость и соотношение “цена-качество”, а самое главное – технологии, которые отвечают требованиям их бизнеса. Мы с радостью объявляем о новых возможностях и сервисах, позволяющих организациям любого размера использовать генеративное ИИ для творческих целей, создавая новые приложения и улучшая свой рабочий процесс. В AWS мы сосредоточены на помощи нашим клиентам в нескольких областях:

  • Обеспечение простоты создания генеративных ИИ-приложений с встроенной безопасностью и конфиденциальностью
  • Сосредоточение на самой производительной и недорогой инфраструктуре для генеративного ИИ, чтобы вы могли обучать свои собственные модели и выполнять масштабные выводы
  • Предоставление генеративных ИИ-приложений для предприятий для трансформации рабочего процесса
  • Позволяют использовать данные как вашу конкурентную особенность для настройки базовых моделей и превращения их в экспертов вашего бизнеса, ваших данных и вашей компании

Для того, чтобы помочь широкому кругу организаций создать уникальные генеративные ИИ-решения, AWS сотрудничает с нашими клиентами, включая BBVA, Thomson Reuters, United Airlines, Philips и LexisNexis Legal & Professional. И с новыми возможностями, которые были представлены сегодня, мы надеемся на повышенную производительность, улучшенное вовлечение клиентов и более персонализированные пользовательские впечатления, которые изменят способ работы компаний.

Объявление о начале использования Amazon Bedrock, самого простого способа создания генеративных ИИ-приложений с встроенной безопасностью и конфиденциальностью

Клиенты взволнованы и оптимистичны относительно ценности, которую генеративное ИИ может принести предприятию. Они глубоко изучают технологию, чтобы понять шаги, которые нужно предпринять, чтобы создать систему генеративного ИИ в производство. Несмотря на то, что последние прогрессивные достижения в генеративном ИИ привлекли широкое внимание, многие бизнесы не смогли принять участие в этой трансформации. Клиенты говорят нам, что им нужен выбор моделей, гарантии безопасности и конфиденциальности, ориентация на данные – стоимостно – эффективные способы запуска моделей, а также возможности, такие как инжиниринг промптов, улучшенная генерация с помощью ассоциативного поиска и агенты, чтобы создавать настраиваемые приложения. Именно поэтому 13 апреля 2023 года мы объявили о запуске Amazon Bedrock, самого простого способа создания и масштабирования генеративных ИИ-приложений с базовыми моделями. Amazon Bedrock – это полностью управляемый сервис, который предлагает выбор высокопроизводительных базовых моделей от ведущих поставщиков, таких как AI21 Labs, Anthropic, Cohere, Meta, Stability AI и Amazon, а также широкий набор возможностей, необходимых клиентам для создания генеративных ИИ-приложений, упрощая разработку при сохранении конфиденциальности и безопасности. Кроме того, в рамках недавно объявленного стратегического сотрудничества, все будущие базовые модели от Anthropic будут доступны в рамках Amazon Bedrock с прежним доступом к уникальным функциям настройки моделей и возможностей доводки.

С апреля мы видим на практике, как стартапы, такие как Coda, Hurone AI и Nexxiot; крупные предприятия, такие как adidas, GoDaddy, Clariant и Broadridge; а также партнеры, такие как Accenture, BCG, Leidos и Mission Cloud, уже используют Amazon Bedrock для безопасного создания генеративных ИИ-приложений в различных отраслях. Независимые поставщики программного обеспечения (ISV), такие как Salesforce, сейчас безопасно интегрируются с Amazon Bedrock, чтобы предоставить своим клиентам возможность использовать генеративные ИИ-приложения. Клиенты применяют генеративное ИИ для новых случаев использования; например, компания Lonely Planet, крупный медиа-травел-журнал, сотрудничала с нашим Иновационным центром генеративного ИИ для создания масштабируемой ИИ-платформы, которая организует контент книг за минуты, чтобы предоставлять согласованные и высокоточные рекомендации по путешествиям, снижая затраты на составление маршрута на 80%. А с тех пор мы продолжили добавлять новые возможности, такие как агенты для Amazon Bedrock, а также поддержку новых моделей, таких как Cohere и последних моделей от Anthropic, для предложения нашим клиентам больше вариантов и упрощения создания приложений на основе генеративного ИИ. Агенты для Bedrock – это прорыв, позволяющий LLM выполнять сложные задачи на основе ваших данных и API с использованием частных и безопасных настроек всего за несколько минут (нет необходимости в обучении или настройке).

Сегодня мы рады поделиться новыми новостями, которые облегчают использование генеративного искусственного интеллекта в вашей организации:

  • Генеральная доступность Amazon Bedrock — для возможности создания и масштабирования приложений на основе генеративного ИИ большему числу клиентов
  • Расширенный выбор моделей с Llama 2 (появится через несколько недель) и Amazon Titan Embeddings. Это предоставляет клиентам больше возможностей и гибкости для подбора правильной модели для каждого случая использования и повышения результативности RAG
  • Amazon Bedrock доступен для использования в рамках стандартов HIPAA и соответствует GDPR, что дает возможность получить преимущества генеративного ИИ еще большему числу клиентов
  • Гарантированная пропускная способность обеспечивает постоянное качество пользовательского опыта, даже во время пикового трафика

С началом генеральной доступности Amazon Bedrock большее количество клиентов получат доступ к всем возможностям Bedrock. Клиенты могут легко экспериментировать с различными моделями и настраивать их в соответствии с их данными, используя такие техники, как тонкая настройка и RAG. Они могут создавать управляемые агенты, выполняющие сложные бизнес-задачи — от бронирования путешествий и обработки страховых претензий по управлению рекламными кампаниями и запасами товаров — все это без написания кода. Поскольку Amazon Bedrock является серверным сервисом, клиентам не нужно заниматься управлением какой-либо инфраструктурой, и они могут безопасно интегрировать и развивать возможности генеративного ИИ в свои приложения, используя уже знакомые им сервисы AWS.

Второй основой, сделавшей Amazon Bedrock уникальным сервисом для наших клиентов, является выбор моделей. На такой ранней стадии принятия генеративного ИИ нет одной модели, которая бы полностью раскрывала все преимущества данной технологии. Клиенты нуждаются в возможности работать с различными высокопроизводительными моделями. Мы рады объявить о генеральной доступности Amazon Titan Embeddings, а также о предстоящем появлении Llama 2, следующей генерации модели большого языка Meta (LLM). Они присоединятся к уже существующим поставщикам моделей: AI21 Labs, Anthropic, Cohere, Stability AI и Amazon, что даст клиентам еще больше выбора и гибкости. Amazon Bedrock — первый полностью управляемый сервис генеративного ИИ, который предлагает Llama 2, следующую генерацию LLM от Meta, с помощью управляемого API. Модели Llama 2 имеют значительные улучшения по сравнению с исходными моделями Llama, в том числе обучение на 40% большем объеме данных и наличие большей длины контекста 4 000 токенов для работы с более объемными документами. Модели Llama 2, доступные через Amazon Bedrock, оптимизированы для быстрого отклика на инфраструктуру AWS и идеально подходят для использования в диалоговых сценариях. Теперь клиенты могут создавать приложения генеративного ИИ на основе моделей Llama 2 с параметрами 13B и 70B, не нуждаясь в настройке и управлении какой-либо инфраструктурой.

Amazon Titan FMs — это семейство моделей, созданных и предварительно обученных AWS на больших наборах данных, что делает их мощными и универсальными возможностями, предназначенными для поддержки различных случаев использования. Первая из этих моделей, которая доступна для всех клиентов, Amazon Titan Embeddings, является LLM, который преобразует текст в числовые представления (так называемые векторы вложений) для использования в RAG. FMs подходят для широкого спектра задач, но они могут отвечать только на вопросы, основанные на обучающих данных и контекстной информации в запросе, что ограничивает их эффективность, когда ответы требуют своевременной информации или закрытых данных. Данные являются отличием между обычным генеративным приложением и таким, которое действительно знает ваш бизнес и ваших клиентов. Чтобы дополнить ответы FM с помощью дополнительных данных, многие организации обращаются к RAG, популярной технике настройки модели, при которой FM подключается к источнику знаний, на который он может ссылаться для расширения своих ответов. Для начала работы с RAG клиентам сначала нужен доступ к модели вложений для преобразования своих данных в векторы, которые позволяют FM более легко понимать семантическое значение и взаимосвязи между данными. Создание модели вложений требует обширного объема данных, ресурсов и экспертизы в области машинного обучения, что делает RAG недоступным для многих организаций. Amazon Titan Embeddings облегчает начало работы с RAG и расширяет возможности любой FM с использованием собственных данных клиента. Amazon Titan Embeddings поддерживает более 25 языков и длину контекста до 8 192 токенов, что делает его отличным выбором для работы с отдельными словами, фразами или целыми документами в зависимости от потребностей клиента. Модель возвращает векторы вывода размером 1 536 измерений, обеспечивая высокую точность и оптимизацию для достижения результатов с низкой задержкой и низкими затратами. С новыми моделями и возможностями можно легко использовать данные вашей организации как стратегический актив для настройки базовых моделей и создания более индивидуальных и уникальных пользовательских впечатлений.

Во-первых, поскольку данные, которые клиенты хотят использовать для настройки, являются ценным интеллектуальной собственностью, им необходимо, чтобы они оставались безопасными и конфиденциальными. Благодаря встроенной защите и конфиденциальности, клиентам Amazon Bedrock можно доверять, что их данные остаются защищенными. Никакие данные клиента не используются для обучения исходных базовых FM. Все данные шифруются в покое и при передаче. Кроме того, вы можете ожидать тех же самых управляющих доступом AWS, которыми вы пользуетесь с любым другим сервисом AWS. Сегодня мы с радостью строим на этом фундаменте и представляем новые возможности безопасности и управления – Amazon Bedrock теперь является сервисом, соответствующим стандартам HIPAA, и может использоваться в соответствии с GDPR, что позволяет еще большему числу клиентов воспользоваться генеративным ИИ. Новые возможности управления включают интеграцию с Amazon CloudWatch для отслеживания метрик использования и создания настраиваемых панелей мониторинга, а также интеграцию с AWS CloudTrail для мониторинга активности API и устранения проблем. Эти новые возможности управления и безопасности помогают организациям раскрыть потенциал генеративного искусственного интеллекта, даже в строго регулируемых отраслях, и обеспечить защиту данных.

В-третьих, в то время, как выходные дни, включая праздники, являются критическими для клиентов, чтобы убедиться, что их пользователи получают бесперебойное обслуживание от приложений, работающих на основе генеративного ИИ. В эти периоды клиенты хотят обеспечить доступность своего сервиса для всех пользователей вне зависимости от спроса. Теперь Amazon Bedrock позволяет клиентам резервировать пропускную способность (в терминах обработанных токенов в минуту), чтобы обеспечить последовательный пользовательский опыт даже во время пикового трафика.

Вместе с новыми возможностями и моделями, о которых мы объявили сегодня для Amazon Bedrock, предприятия смогут быстрее строить более персонализированные приложения и повышать производительность сотрудников. В сочетании с нашими непрерывными инвестициями в инфраструктуру машинного обучения, Amazon Bedrock является лучшим местом для создания и масштабирования генеративных приложений на основе искусственного интеллекта.

Чтобы помочь клиентам быстро начать использовать эти новые функции, мы добавляем новое обучение по генеративному ИИ для Amazon Bedrock в нашу коллекцию цифровых самоучителей по требованию. Amazon Bedrock – Начало работы – это бесплатный курс, который можно пройти в любое удобное время и темпе. В течение 60 минут этот курс ознакомит разработчиков и техническую аудиторию с преимуществами, функциями, примерами использования и техническими концепциями Amazon Bedrock.

Объявление о возможности настройки Amazon CodeWhisperer для генерации более релевантных рекомендаций кода на основе кодовой базы организации

В AWS мы создаем мощные новые приложения, которые трансформируют способ работы наших клиентов с помощью генеративного искусственного интеллекта. В апреле 2023 года мы объявили о полной доступности по адресу Amazon CodeWhisperer, искусственного интеллекта, помогающего разработчикам создавать программные приложения быстрее, предоставляя предложения кода на 15 языках программирования на основе комментариев на естественном языке и коде в IDE разработчика. CodeWhisperer был обучен на миллиардах строк общедоступного кода, чтобы помочь разработчикам быть более продуктивными в широком диапазоне задач. Мы специально обучили CodeWhisperer на качественном коде Amazon, включая API и bewhite-практики AWS, чтобы помочь разработчикам стать еще быстрее и точнее в создании кода, взаимодействующего со службами AWS, такими как Amazon Elastic Compute Cloud (Amazon EC2), Amazon Simple Storage Service (Amazon S3) и AWS Lambda. Клиенты от Accenture до Persistent до Bundesliga использовали CodeWhisperer, чтобы сделать своих разработчиков более продуктивными.

Многие клиенты также хотят, чтобы CodeWhisperer включал их собственные внутренние API, библиотеки, bewhite-практики и архитектурные шаблоны в свои рекомендации кода, чтобы ускорить разработку еще больше. Сегодня искусственному интеллекту для создания кода не удается включать эти API в свои рекомендации кода, потому что они обычно обучаются на общедоступном коде и не знают о внутреннем коде компании. Например, для создания функции для интернет-магазина, который перечисляет товары в корзине покупателя, разработчикам необходимо найти и понять существующий внутренний код, такой как API, предоставляющий описание товаров, чтобы отобразить описания в корзине покупателя. Если приложение не поддерживает создание кода квалифицированным кодировщиком, таким как CodeWhisperer, разработчики должны тратить часы на просмотр внутренней кодовой базы и документации, чтобы завершить работу. Даже после того, как разработчикам удалось найти правильные ресурсы, им приходится потратить больше времени на проверку кода, чтобы убедиться в его соответствии с bewhite-практиками компании.

Сегодня мы с радостью объявляем о новой возможности настройки Amazon CodeWhisperer, которая позволяет CodeWhisperer генерировать еще более качественные предложения, поскольку он теперь может включать в себя ваши внутренние API, библиотеки, bewéшу практику и архитектурные шаблоны. Эта возможность использует последние техники моделирования и настройки контекста и скоро будет доступна в предварительной версии в рамках нового CodeWhisperer Enterprise Tier. Благодаря этой возможности, вы сможете безопасно подключить ваши закрытые репозитории к CodeWhisperer и с помощью нескольких кликов настроить CodeWhisperer для генерации рекомендаций в реальном времени, включающих в себя ваш внутренний код. Например, с помощью настройки CodeWhisperer разработчик, работающий в компании по доставке еды, может попросить CodeWhisperer предложить рекомендации, включающие конкретный код, связанный с внутренними сервисами компании, такими как “Обработка списка не распределенных доставок еды вокруг текущего местоположения водителя”. Ранее CodeWhisperer не знал правильных внутренних API для “не распределенных доставок еды” или “текущего местоположения водителя”, поскольку это не является общедоступной информацией. Теперь, после настройки на внутреннем кодовой базе компании, CodeWhisperer понимает намерение, определяет, какие внутренние и общедоступные API лучше всего подходят для задачи и генерирует рекомендации по коду для разработчика. Возможность настройки CodeWhisperer позволяет сэкономить разработчикам часы, затраченные на поиск и модификацию слабо задокументированного кода, а также помогает новым разработчикам быстрее входить в компанию.

В следующем примере после создания закрытой настройки, разработчики компании “ЛюбаяКомпания” (компания по доставке еды) получают рекомендации по коду CodeWhisperer, включающие их внутренние API и библиотеки.

Мы провели недавнее исследование с компанией Persistent, глобальным поставщиком услуг и решений в области цифровой инженерии и модернизации предприятия, чтобы измерить преимущества в производительности возможности настройки CodeWhisperer. Persistent обнаружила, что разработчики, использующие возможность настройки, были в среднем на 28% быстрее в выполнении своих задач по кодированию, чем разработчики, использующие стандартный CodeWhisperer.

Мы разработали эту возможность настройки с учетом конфиденциальности и безопасности. Администраторы могут легко управлять доступом к закрытой настройке из AWS Management Console, так чтобы имели доступ только определенные разработчики. Администраторы также могут гарантировать, что для использования в настройке CodeWhisperer допускаются только репозитории, соответствующие их стандартам. Использование высококачественных репозиториев помогает CodeWhisperer делать рекомендации, способствующие безопасности и соблюдению наилучших практик в области кодирования. Каждая настройка полностью изолирована от других клиентов, и ни одна из настроек, созданных с помощью этой новой возможности, не будет использоваться для обучения FM-кода, лежащего в основе CodeWhisperer, что защищает ценную интеллектуальную собственность клиентов.

Объявление о предварительной версии возможностей авторинга Генеративного BI в Amazon QuickSight для помощи бизнес-аналитикам в создании и настройке визуализаций с использованием команд естественного языка

AWS продолжает усилия по демократизации доступа к инсайтам для всех пользователей в организации. Amazon QuickSight, наша единая облачная служба бизнес-аналитики, позволяет обмениваться инсайтами всем пользователям в организации. Благодаря QuickSight мы начали использовать генеративные модели в качестве основы Amazon QuickSight Q, которые позволяют любому пользователю задавать вопросы своим данным с помощью естественного языка, не писать SQL-запросы и не изучать инструменты бизнес-аналитики с 2020 года. В июле 2023 года мы объявили, что мы дальше развиваем ранние инновации в QuickSight Q с использованием новых возможностей LLM для обеспечения генеративных возможностей BI в QuickSight. Текущие клиенты QuickSight, такие как BMW Group и Traeger Grills, с нетерпением ждут дальнейшего увеличения продуктивности своих аналитиков с помощью генеративного авторинга BI.

Сегодня мы рады представить эти возможности LLM в предварительной версии с возможностями авторинга Generative BI панелей инструментов для бизнес-аналитиков. Новые возможности авторинга Generative BI расширяют возможности поиска на естественном языке QuickSight Q за пределы ответа на хорошо структурированные вопросы (например, “какие 10 самых популярных продуктов продаются в Калифорнии?”) для помощи аналитикам быстро создавать настраиваемые визуализации на основе фрагментов вопросов (например, “10 самых популярных продуктов”), уточнять намерения запроса, задавая уточняющие вопросы, улучшать визуализации и выполнять сложные расчеты. Бизнес-аналитики просто описывают желаемый результат, а QuickSight генерирует убедительные визуализации, которые можно легко добавить на панель инструментов или отчет одним щелчком. QuickSight Q также предлагает связанные вопросы, чтобы помочь аналитикам прояснить ситуацию в случае неоднозначности, когда несколько полей данных соответствуют их запросу. Когда у аналитика есть начальная визуализация, он может добавлять сложные расчеты, изменять типы диаграмм и улучшать визуализации с помощью подсказок на естественном языке. Новые возможности авторинга Generative BI в QuickSight Q позволяют бизнес-аналитикам быстро и легко создавать убедительные визуализации и сокращать время доставки необходимых для принятия решений на основе данных исключительных фактов масштабирования.

Создание визуализаций с использованием возможностей Generative BI в Amazon QuickSight

Создание визуализаций с использованием возможностей Generative BI в Amazon QuickSight

Инструменты и возможности генеративного ИИ для каждого бизнеса

Сегодняшние объявления открывают доступ к генеративному ИИ для любого клиента. Благодаря высокому уровню безопасности и конфиденциальности на предприятии, выбору ведущих FMs, подходу, ориентированному на данные, и высокопроизводительной, экономичной инфраструктуре, организации доверяют AWS в приведении их инноваций с помощью генеративных решений ИИ на каждом уровне стека. Мы видели захватывающие инновации от Bridgewater Associates до Omnicom до Asurion до Rocket Mortgage, и с помощью этих новых объявлений мы ожидаем появления новых случаев использования и применения технологии для повышения производительности. Это только начало – на всех уровнях технологического стека мы инновируем с новыми сервисами и возможностями, созданными для вашей организации, чтобы помочь решить некоторые из ваших самых больших проблем и изменить нашу работу.

Ресурсы

Чтобы узнать больше, ознакомьтесь с следующими ресурсами: