Наш ответственный подход к созданию ограждающих конструкций для генеративного искусственного интеллекта

Наш профессиональный подход к созданию ограждающих конструкций для генеративного искусственного интеллекта

На протяжении более двух десятилетий Google сотрудничает с машинным обучением и искусственным интеллектом, чтобы сделать наши продукты более полезными. ИИ помогает нашим пользователям каждый день, начиная от Smart Compose в Gmail и заканчивая поиском более быстрых маршрутов домой в Maps. ИИ также позволяет нам внести вклад в важные проблемы, которые касаются всех, будь то развитие медицины или поиск более эффективных способов борьбы с изменением климата. Продолжая интегрировать ИИ и, более недавно, генеративный ИИ, в все большее число продуктов Google, мы знаем, что важно быть смелыми и ответственными вместе.

Внедрение защиты в наши продукты с самого начала

Важной частью ответственного внедрения этой технологии является предвидение и тестирование широкого спектра рисков в области безопасности, включая те, которые вызывают изображения, созданные с помощью ИИ. Мы предпринимаем шаги для внедрения защиты в функции нашего генеративного ИИ по умолчанию, руководствуясь нашими принципами работы ИИ:

  • Защита от несправедливого предвзятости: Мы разработали инструменты и наборы данных, которые помогают выявлять и уменьшать несправедливую предвзятость в наших моделях машинного обучения. Это активная область исследований для наших команд, и за последние несколько лет мы опубликовали несколько ключевых статей по этой теме. Мы также регулярно привлекаем сторонние мнения, чтобы учесть социальные контекст и оценить наборы данных для обучения на предмет потенциальных источников несправедливой предвзятости.
  • Ред-тиминг: Мы привлекаем внутренних и внешних экспертов для участия в программах ред-тиминга, которые тестируют широкий спектр уязвимостей и потенциальных областей злоупотребления, включая уязвимости в области компьютерной безопасности, а также более сложные социальные риски, такие как справедливость. Эти целенаправленные усилия по адверсарскому тестированию, включая наше участие в мероприятии DEF CON AI Village Red Team в прошлом августе, помогают выявить текущие и новейшие риски, поведение и нарушения политики, что позволяет нашим командам принимать превентивные меры по их смягчению.
  • Реализация политик: Используя наш опыт в разработке политики и технической реализации, мы создали политику запрещенного использования генеративного ИИ, в которой описаны вредоносное, неподходящее, вводящее в заблуждение или незаконное содержимое, которое мы не допускаем. Затем наша обширная система классификаторов используется для обнаружения, предотвращения и удаления контента, нарушающего эти политики. Например, если мы выявляем нарушающий запрос или результат, наши продукты не предоставляют ответа, а также могут направлять пользователя на дополнительные ресурсы для помощи по чувствительным темам, таким как опасные действия или самоповреждение. Мы также постоянно улучшаем наши модели для обеспечения более безопасных ответов.
  • Защита подростков: Мы постепенно расширяем доступ к генеративным ИИ опытам, таким как SGE, для подростков и разработали дополнительные меры безопасности в отношении областей, которые могут представлять риск для молодых пользователей на основе их развивающихся потребностей. Это включает ограничение выводов, связанных с темами, такими как издевательства, запрещенные для определенного возраста или незаконные вещества.
  • Гарантии клиентам в отношении авторских прав: Мы обеспечили сильные гарантии о всей тренировочной информации, используемой для генеративных моделей ИИ, и сгенерированный результат для пользователей ключевых сервисов Google Workspace и Google Cloud. Проще говоря, если клиенты сталкиваются с вопросами авторских прав, мы берем на себя ответственность за потенциальные правовые риски.

Предоставление дополнительного контекста для выводов генеративного ИИ

На основе нашего долгого опыта предоставления контекста о найденной в сети информации, мы добавляем новые инструменты, чтобы помочь людям оценивать информацию, созданную нашими моделями. Например, мы добавили Об этом результате в генеративный ИИ в поиске, чтобы помочь людям оценивать информацию, которую они находят. Мы также внедрили новые способы помощи людям в проверке ответов, которые они видят в Bard.

Контекст особенно важен для изображений, и мы принимаем меры, чтобы убедиться, что каждое изображение, созданное с помощью наших продуктов, имеет метаданные и водяные знаки с использованием SynthID. Аналогично, мы недавно обновили наши политики рекламы на выборах, чтобы потребовать от рекламодателей раскрывать, когда их политические рекламы содержат цифровые изменения или сгенерированный материал. Это поможет дополнительно контекстуализировать информацию для людей, которые видят политическую рекламу на наших платформах.

Мы запустили Bard и SGE в качестве экспериментов, потому что мы признаем, что в связи с появляющимися технологиями опыт, основанный на большой модели языка (LLM), может допускать ошибки, особенно при передаче актуальных новостей. Мы всегда работаем над тем, чтобы наши продукты обновлялись по мере поступления новой информации, и наши команды продолжают быстро внедрять улучшения по мере необходимости.

Как мы защищаем вашу информацию

Новые технологии естественным образом вызывают вопросы в отношении конфиденциальности пользователей и личных данных. Мы создаем продукты и приложения искусственного интеллекта, которые разработаны с учетом конфиденциальности. Множество мер конфиденциальности, которые мы применяем на протяжении многих лет, также применяются к нашим инструментам генерации искусственного интеллекта, и, как и в случае с другими типами данных о действиях в вашей учетной записи Google, легко можно приостановить, сохранить или удалить их в любое время, включая Bard и Поиск.

Мы никогда не продаем вашу личную информацию никому, в том числе в рекламных целях – это долгосрочная политика Google. Кроме того, мы внедрили меры конфиденциальности, которые подходят к нашим инструментам генерации искусственного интеллекта. Например, если вы решите использовать расширения Workspace в Bard, ваш контент из Gmail, Документов и Диска не видят люди, не используются для показа вам рекламы или обучения модели Bard.

Сотрудничество со заинтересованными сторонами для формирования будущего

Искусственный интеллект вызывает сложные вопросы, на которые ни Google, ни другая отдельная компания не может ответить самостоятельно. Чтобы получить правильный ответ от искусственного интеллекта, нам необходимо сотрудничество между компаниями, академическими исследователями, общественными объединениями, правительствами и другими заинтересованными сторонами. Мы уже ведем диалог с группами, такими как Partnership on AI и ML Commons, а также запустили Frontier Model Forum вместе с другими ведущими лабораториями искусственного интеллекта для поощрения ответственной разработки моделей искусственного интеллекта. Кроме того, мы также публикуем множество исследовательских статей, чтобы поделиться своими знаниями с исследователями и отраслью.

Мы также прозрачны в отношении нашего прогресса по выполнению обязательств, включая те, которые мы приняли на добровольной основе вместе с другими технологическими компаниями на саммите Белого дома в этом году. Мы будем продолжать работать вместе со всей отраслью и с правительствами, исследователями и другими, чтобы воспользоваться возможностями и справиться с рисками, которые представляет искусственный интеллект.