Объявление о новых инструментах и возможностях для обеспечения ответственного инновационного использования искусственного интеллекта

Инновационные инструменты и возможности для ответственного использования искусственного интеллекта объявление о новинках

Быстрый рост генеративного искусственного интеллекта приносит многообещающие новые инновации и, в то же время, ставит перед нами новые вызовы. Эти вызовы включают некоторые, свойственные уже до возникновения генеративного ИИ, такие как предвзятость и объяснимость, а также новые, характерные только для основных моделей (ФМ), включая галлюцинации и токсичность. В Amazon мы стремимся создавать генеративный ИИ ответственно, придерживаясь ориентированного на человека подхода, который приоритезирует образование, науку и наших клиентов, чтобы интегрировать ответственный ИИ на протяжении всего жизненного цикла.

За последний год мы представили новые возможности в наших приложениях и моделях генеративного ИИ, такие как встроенное сканирование безопасности в Amazon CodeWhisperer, обучение для обнаружения и блокировки вредного контента в Amazon Titan и защита конфиденциальности данных в Amazon Bedrock. Наша инвестиция в безопасный, прозрачный и ответственный генеративный ИИ включает сотрудничество с глобальным сообществом и законодателями, поощрение и поддержку Добровольных обязательств Белого дома по ИИ и AI Safety Summit в Великобритании. Мы продолжаем работать с клиентами рукой в руку, чтобы внедрить ответственный ИИ с помощью специальных инструментов, таких как Amazon SageMaker Clarify, управление МL с помощью Amazon SageMaker и многое другое.

Представление новых ответственных инноваций в области ИИ

По мере того как генеративный ИИ развивается в различных отраслях и организациях, этот рост должен сопровождаться устойчивыми инвестициями в развитие ответственных основных моделей. Клиенты хотят, чтобы их основные модели были построены с учетом безопасности, справедливости и безопасности, чтобы они в свою очередь могли использовать ИИ ответственно. В этом году на AWS re:Invent мы с радостью объявляем о новых возможностях, чтобы содействовать ответственной инновации в области генеративного ИИ, предлагая встроенные инструменты, защиту клиентов, ресурсы для повышения прозрачности и инструменты борьбы с дезинформацией. Наша цель – предоставить клиентам информацию, которая позволит им оценить основные модели с учетом ключевых аспектов ответственного ИИ, таких как токсичность и надежность, и внедрить меры безопасности на основе потребностей клиентов и политик ответственного ИИ. В то же время наши клиенты хотят получить более полную информацию о безопасности, справедливости, безопасности и других свойствах услуг и основных моделей ИИ, которые они используют в своей организации. Мы рады объявить о расширении ресурсов, которые помогут клиентам лучше понять наши услуги и сделать их более прозрачными.

Внедрение мер безопасности: Ограждения для Amazon Bedrock

Безопасность имеет высокий приоритет при внедрении генеративного ИИ в масштабе. Организации хотят создавать безопасное взаимодействие между своими клиентами и приложениями генеративного ИИ, чтобы избегать вредного или оскорбительного языка и соответствовать политикам компании. Самый простой способ сделать это – установить одинаковые меры безопасности во всей организации, чтобы каждый мог безопасно вносить инновации. Вчера мы анонсировали предварительную версию “Ограждений для Amazon Bedrock” – новой возможности, которая упрощает внедрение мер безопасности, специфичных для приложения, на основе потребностей клиентов и политик ответственного ИИ.

Барьерные ограждения обеспечивают согласованность в реакции менеджеров по обслуживанию клиентов Amazon Bedrock на нежелательный и вредоносный контент в приложениях. Клиенты могут применять барьерные ограждения к большим языковым моделям на Amazon Bedrock, а также к моделям с настройкой и в сочетании с Агентами для Amazon Bedrock. Барьерные ограждения позволяют указать темы, которых следует избегать, и сервис автоматически обнаруживает и предотвращает запросы и ответы, которые попадают в запрещенные категории. Клиенты также могут настроить пороги фильтрации контента в различных категориях, включая ненависть, оскорбления, сексуализированный язык и насилие для фильтрации вредоносного контента до желаемого уровня. Например, онлайн-банковское приложение может быть настроено таким образом, чтобы избегать предоставления инвестиционных советов и ограничивать неприемлемый контент (такой как ненависть, оскорбления и насилие). В ближайшем будущем клиенты также смогут замазывать лично идентифицируемую информацию (ЛИИ) во входных данных пользователей и ответах МО, устанавливать фильтры нецензурной брани и предоставлять список пользовательских слов, которые следует блокировать во взаимодействиях между пользователями и МО, улучшая соблюдение и дополнительную защиту пользователей. С помощью барьерных ограждений вы можете быстрее внедрять генеративный ИИ, при этом соблюдая правила и меры защиты, соответствующие политике компании.

Определение лучшей FM для определенного использования: Оценка моделей в Amazon Bedrock

Сегодня у организаций есть широкий выбор FM-моделей для поддержки их генеративных ИИ-приложений. Чтобы найти правильный баланс между точностью и производительностью для своего случая использования, организации должны эффективно сравнить модели и найти лучший вариант на основе ключевых метрик ответственного ИИ и качества, которые для них важны. Для оценки моделей организациям необходимо затратить несколько дней на поиск точек отсчета, настройку инструментов оценки и проведение анализа, что требует глубокого понимания в области науки о данных. Кроме того, эти тесты не пригодны для оценки субъективных критериев (например, голос бренда, актуальность и стиль), которые требуют суждения при помощи тедиозных и трудоемких процессов человеческого рассмотрения. Время, опыт и ресурсы, требуемые для выполнения таких оценок – для каждого нового случая использования – затрудняют организациям проверять модели по параметрам ответственного ИИ и сделать обоснованный выбор, какая модель обеспечит наиболее точный и безопасный опыт для их клиентов.

Теперь, доступная в превью, Оценка моделей в Amazon Bedrock помогает клиентам оценить, сравнить и выбрать лучшие FM-модели для их определенного случая использования на основе пользовательских метрик, таких как точность и безопасность, с помощью автоматической или человеческой оценки. В консоли Amazon Bedrock клиенты выбирают FM-модели, которые они хотят сравнить для задачи, такой как вопросно-ответная система или суммаризация содержания. Для автоматической оценки клиенты выбирают предопределенные критерии оценки (например, точность, надежность и токсичность) и загружают собственный тестовый набор данных или выбирают из встроенных общедоступных наборов данных. Для субъективных критериев или нюансированного контента, требующего суждения, клиенты могут легко настроить рабочие процессы оценки на основе людей всего за несколько щелчков. Эти рабочие процессы используют команду клиента или осуществляются с помощью управляемой рабочей силы, предоставляемой AWS, для оценки ответов модели. Во время оценки на основе людей клиенты определяют метрики, специфичные для их случая использования (например, актуальность, стиль и голос бренда). По завершении настройки Amazon Bedrock выполняет оценку и генерирует отчет, чтобы клиенты могли легко понять, как модель проявляла себя по основным критериям безопасности и точности и выбрать наиболее подходящую модель для своего случая использования.

Возможность оценки моделей доступна не только в Amazon Bedrock: клиенты также могут использовать оценку моделей в Amazon SageMaker Clarify для легкой оценки, сравнения и выбора лучшего варианта FM по ключевым метрикам качества и ответственности, таким как точность, надежность и токсичность – для всех FM.

Борьба с дезинформацией: Водяные знаки в Amazon Titan

Сегодня мы объявили о Технологии создания изображений Amazon Titan в превью, которая дает клиентам возможность быстро создавать и улучшать изображения высокого качества в большом объеме. Мы учли ответственный ИИ на каждом этапе процесса разработки модели, включая выбор обучающих данных, создание возможностей фильтрации для обнаружения и удаления неподходящих данных пользователей и результатов модели, а также улучшение демографического разнообразия результатов нашей модели. Все изображения, созданные с помощью Amazon Titan, содержат невидимый водяной знак по умолчанию, который помогает сократить распространение дезинформации, предоставляя дискретный механизм для идентификации изображений, созданных с помощью ИИ. AWS является одним из первых поставщиков моделей, широко предоставляющих встроенные невидимые водяные знаки, интегрированные в изображения и предназначенные для сопротивления изменениям.

Построение доверия: Защита наших моделей и приложений гарантией

Построение доверия клиентов – это основа для AWS. Мы идем по пути с нашими клиентами с момента основания, и с развитием генеративного искусственного интеллекта мы остаемся преданными созданию инновационных технологий вместе. Чтобы клиенты могли использовать мощь нашего генеративного искусственного интеллекта, им необходимо быть уверенными в своей защите. AWS предлагает гарантию авторских прав для результатов следующих сервисов генеративного ИИ Amazon: Amazon Titan Text Express, Amazon Titan Text Lite, Amazon Titan Embeddings, Amazon Titan Multimodal Embeddings, Amazon CodeWhisperer Professional, AWS HealthScribe, Amazon Lex и Amazon Personalize. Это означает, что клиенты, ответственно использующие модели, защищены от третьих лиц, предъявляющих претензии о нарушении авторских прав в результате использования этих сервисов (см. раздел 50.10 Условий оказания услуг). Кроме того, наши стандартные условия интеллектуальной собственности обеспечивают защиту клиентов от претензий третьих лиц о нарушении интеллектуальной собственности сервисами и данных, используемых для их обучения. Другими словами, если вы используете одну из вышеуказанных служб генеративного ИИ Amazon, и кто-то подает на вас иск о нарушении интеллектуальной собственности, AWS будет защищать вас и покрывать все расходы на возможные судебные издержки или урегулирование.

Мы поддерживаем наши службы генеративного ИИ и постоянно работаем над их улучшением. При запуске новых служб AWS и в условиях дальнейшего развития генеративного ИИ мы будем продолжать неустанно стремиться к завоеванию и сохранению доверия клиентов.

Повышение прозрачности: Карточка AWS AI для Amazon Titan Text

Мы представили карты AWS AI Service на конференции re:Invent 2022 как источник прозрачности для помощи клиентам в лучшем понимании наших сервисов искусственного интеллекта AWS. Карты AI Service – это форма документации о ответственности в области искусственного интеллекта, которая предоставляет клиентам единое место для получения информации о предполагаемых сферах применения и ограничениях, выборах ответственного дизайна искусственного интеллекта, а также наилучших практиках в области развертывания и оптимизации производительности наших сервисов искусственного интеллекта. Они являются частью всестороннего процесса разработки, который мы осуществляем в ответственном стиле, чтобы решить проблемы справедливости, объяснимости, достоверности и надежности, управления, прозрачности, конфиденциальности и защиты, безопасности, а также возможности управления.

На конференции re:Invent в этом году мы объявляем о новой карточке AI Service для Amazon Titan Text, чтобы увеличить прозрачность в отношении фундаментальных моделей. Мы также запускаем четыре новые карты AI Service, включая: Amazon Comprehend Detect PII, Amazon Transcribe Toxicity Detection, Amazon Rekognition Face Liveness и AWS HealthScribe. Вы можете ознакомиться с каждой из этих карт на веб-сайте AWS. В условиях дальнейшего роста и развития генеративного ИИ прозрачность в отношении того, как разрабатывается, тестируется и используется технология, будет являться важным компонентом завоевания доверия организаций и их клиентов. В AWS мы обязуемся приносить прозрачность и предоставлять ресурсы, подобные картам AI Service, более широкому сообществу — и итеративно и собирать обратную связь о лучших путях развития.

Инвестиции в ответственный ИИ на протяжении всего жизненного цикла генеративного ИИ

Мы рады новым инновациям, объявленным на конференции re:Invent на этой неделе, которые предоставляют нашим клиентам больше инструментов, ресурсов и встроенных механизмов защиты для безопасного создания и использования генеративного искусственного интеллекта. От оценки модели до защитных механизмов и водяных знаков, клиенты теперь могут быстрее внедрять генеративный ИИ в свою организацию, при этом снижая риск. Новые меры защиты для клиентов, такие как страхование от обязательств в отношении интеллектуальной собственности и новые ресурсы для повышения прозрачности, например, дополнительные карточки службы искусственного интеллекта, также являются ключевыми примерами нашего стремления стать надежным партнером для технологических компаний, политиков, общественных групп, ученых и других участников общества. Мы продолжаем существенные вложения в ответственный искусственный интеллект на всех этапах жизненного цикла модели, чтобы помочь нашим клиентам масштабировать искусственный интеллект безопасным, надежным и ответственным образом.