Воплощая наше обязательство по безопасному и надежному искусственному интеллекту

Обеспечивая безопасность и надежность искусственного интеллекта наше обязательство в действии

Киберугрозы быстро развиваются, и некоторые из самых больших уязвимостей не обнаруживаются компаниями или производителями продукции, а открытыми исследователями по безопасности. Вот почему у нас есть долгая история поддержки коллективной безопасности через нашу программу вознаграждения за уязвимости (VRP), Проект Zero и в области безопасности программного обеспечения с открытым исходным кодом. Это также почему мы присоединились к другим ведущим компаниям в области AI в Белом доме в начале этого года для решительного продвижения открытия уязвимостей в системах искусственного интеллекта.

Сегодня мы расширяем нашу VRP, чтобы вознаграждать сценарии атак, специфичные для генеративного ИИ. Мы считаем, что это будет стимулировать исследования в области безопасности и безопасности ИИ, и привлечет внимание к потенциальным проблемам, которые в конечном итоге сделают ИИ безопаснее для всех. Мы также расширяем нашу работу по безопасности открытого исходного кода, чтобы сделать информацию о безопасности цепочки поставок ИИ доступной и проверяемой всемирно.

Новая технология требует новых руководств по сообщению о уязвимостях

В рамках расширения VRP for AI мы взглянули на то, как следует классифицировать и сообщать о ошибках. Генеративный ИИ вызывает новые и другие опасения, чем традиционная цифровая безопасность, такие как потенциальный несправедливый предвзятый подход, манипуляция моделью или неправильная интерпретация данных (галлюцинации). Поскольку мы продолжаем интегрировать генеративный ИИ во все большее количество продуктов и функций, наши команды по доверию и безопасности используют десятилетия опыта и применяют всеобъемлющий подход для лучшего предвидения и тестирования этих возможных рисков. Но мы понимаем, что внешние исследователи по безопасности могут помочь нам обнаружить и решить новые уязвимости, что в свою очередь сделает наши генеративные продукты ИИ еще безопаснее и надежнее. В августе мы присоединились к Белому дому и коллегам из индустрии, чтобы предоставить тысячам сторонних исследователей по безопасности возможность найти потенциальные проблемы на крупнейшем публичном мероприятии Red Team Generative AI в DEF CON. Теперь, поскольку мы расширяем программу по вознаграждению за ошибки и публикуем дополнительные руководства по тому, какие ошибки мы хотим, чтобы исследователи по безопасности обнаруживали, мы делимся этими руководствами, чтобы каждый мог увидеть, что находится “в рамках”. Мы ожидаем, что это стимулирует исследователей по безопасности отправлять больше ошибок и ускорит достижение цели более безопасного и надежного генеративного ИИ.

Два новых способа укрепить цепочку поставок ИИ

Мы представили нашу структуру безопасности ИИ (SAIF), чтобы поддержать отрасль в создании надежных приложений, и поддерживаем реализацию через красный тиминг ИИ. Первый принцип SAIF заключается в обеспечении того, чтобы экосистема ИИ имела надежные базы безопасности, и это означает обеспечение безопасности критических компонентов цепочки поставок, обеспечивающих машинное обучение (МО) от угроз, таких как повреждение модели, заражение данных и производство вредоносного контента.

Сегодня, чтобы дополнительно защититься от атак на цепочку поставок машинного обучения, мы расширяем нашу работу по безопасности открытого исходного кода и продолжаем сотрудничество с Открытой сетевой безопасностью. Команда безопасности открытого исходного кода Google (GOSST) использует SLSA и Sigstore для защиты общей целостности цепочек поставок ИИ. SLSA включает набор стандартов и контролов для улучшения устойчивости цепочек поставок, а Sigstore помогает проверить, что програмное обеспечение в цепочке поставок является таким, каким оно утверждает. Чтобы начать, сегодня мы объявили о доступности первых прототипов подписи модели с использованием Sigstore и проверки аттестации с SLSA.

Это ранние шаги к обеспечению безопасного и надежного развития генеративного искусственного интеллекта — и мы знаем, что работа только начинается. Наша надежда в том, что, поощряя больше исследований в области безопасности и применяя безопасность цепочки поставок к искусственному интеллекту, мы продолжим содействовать коллаборации с сообществом открытого программного обеспечения и другими в индустрии, чтобы сделать искусственный интеллект безопаснее для всех.