Google DeepMind предлагает фреймворк искусственного интеллекта для оценки рисков социальной и этической ИИ

Google DeepMind представляет фреймворк искусственного интеллекта для оценки социальных и этических рисков ИИ

Использование генеративных систем искусственного интеллекта, создающих контент различных форматов, становится все более распространенным. Эти системы применяются в различных областях, включая медицину, новости, политику и социальное взаимодействие, предоставляя сопровождение. С использованием продукции естественного языка, эти системы создают информацию в одном формате, таком как текст или графика. Чтобы сделать генеративные системы искусственного интеллекта более адаптивными, наблюдается увеличивающаяся тенденция в их улучшении для работы с дополнительными форматами, такими как аудио (включая голос и музыку) и видео.

Увеличение использования генеративных систем искусственного интеллекта подчеркивает необходимость оценки потенциальных рисков, связанных с их применением. С появлением этих технологий в различных приложениях возникают вопросы о общественной безопасности. Следовательно, оценка потенциальных рисков, создаваемых генеративными системами искусственного интеллекта, становится приоритетной для разработчиков искусственного интеллекта, законодателей, регуляторов и гражданского общества.

Увеличение использования этих систем подчеркивает необходимость оценки потенциальных опасностей, связанных с внедрением генеративных систем искусственного интеллекта. В результате становится все более важным для разработчиков искусственного интеллекта, регуляторов и гражданского общества оценить возможные угрозы, создаваемые генеративными системами искусственного интеллекта. Развитие искусственного интеллекта, который может распространять ложную информацию, вызывает моральные вопросы о том, как такие технологии повлияют на общество.

Следовательно, недавнее исследование исследователей Google DeepMind предлагает всесторонний подход к оценке социальных и этических рисков систем искусственного интеллекта на нескольких контекстных уровнях. Фреймворк DeepMind систематически оценивает риски на трех различных уровнях: возможности системы, взаимодействия человека с технологией и широких системных последствий, которые она может иметь.

Они подчеркивают, что важно осознавать, что даже высококвалифицированные системы могут причинить вред только при неправильном использовании в конкретном контексте. Также фреймворк анализирует реальные взаимодействия человека с системой искусственного интеллекта. Это включает рассмотрение таких факторов, как то, кто использует технологию и соответствует ли она заявленным требованиям.

Наконец, фреймворк проверяет, как искусственный интеллект воздействует на риски, которые могут возникнуть при его широком использовании. Эта оценка учитывает, как технология влияет на более крупные социальные системы и институты. Исследователи подчеркивают, насколько важен контекст при определении уровня риска искусственного интеллекта. Каждый уровень фреймворка пропитан контекстуальными вопросами, подчеркивая важность знания о том, кто будет использовать искусственный интеллект и для чего. Например, даже если система искусственного интеллекта производит фактически точный результат, интерпретация пользователями и последующее распространение этого результата могут иметь непредвиденные последствия, явные только в определенных контекстуальных ограничениях.

Исследователи предоставили как пример изучение дезинформации для демонстрации этой стратегии. Оценка включает анализ склонности искусственного интеллекта к фактическим ошибкам, наблюдение за взаимодействием пользователей с системой и измерение любых последующих последствий, таких как распространение неверной информации. Взаимосвязь модельного поведения с реальным вредом, возникающим в определенном контексте, приводит к неотложным выводам.

Контекстный подход DeepMind подчеркивает важность выхода за рамки изолированных метрик модели. Он подчеркивает необходимость оценки того, как искусственный интеллект работает в сложной реальности социальных контекстов. Эта всесторонняя оценка важна для использования преимуществ искусственного интеллекта при минимизации связанных рисков.