Процесс, усиливающий борьбу против амбициозного регулирования ИИ 3-шаговое решение от Оксфордского исследования

3-шаговое решение от Оксфордского исследования для борьбы с амбициозным регулированием ИИ

Если вы являетесь ответственным менеджером, владельцем продукта, проектным менеджером или ученым-исследователем в области данных, участвующим в проекте по искусственному интеллекту, Oxford Research признала ВАС ключевым игроком в регулировании искусственного интеллекта.

Заранее узнайте, что означает Закон ЕС об искусственном интеллекте для вас и что предлагают исследователи Oxford для соблюдения.

Нажмите кнопку аплодисментов, если вам понравилось (подсказка: вы можете удерживать ее, чтобы дать до 50 аплодисментов!)

ИИ: Инновации против регулирования

Вопросы регулирования искусственного интеллекта находятся в головах правительств по всему миру. В то время как политика по этой горячей теме все еще находится в зародышевом состоянии, для принимающих решения есть явный выбор.

Инновации против регулирования

Это история, которая повторяется с течением времени. Вы освобождаете преимущества и опасности искусственного интеллекта на экономику и надеетесь, что свободный рынок разберется по ходу дела? Или вы пытаетесь ограничить и избежать основных опасностей искусственного интеллекта за счет снижения инвестиций в бизнес?

Как уже обсуждалось в моем последнем посте, Европейский союз высказал свою позицию

Закон об искусственном интеллекте — Закон ЕС с глобальным влиянием

Объем предлагаемого Закона об искусственном интеллекте Европейского союза впечатляет. Он имеет потенциал повлиять на…

VoAGI.com

Закон ЕС об искусственном интеллекте жестко регулирует использование искусственного интеллекта на внутреннем рынке ЕС. Любой желающий получить доступ к ЕС с продуктом/системой искусственного интеллекта, независимо от того, является ли он резидентом ЕС или нет, должен соблюдать Закон об искусственном интеллекте. Это эквивалент Закона о защите данных GDPR для искусственного интеллекта.

Его определение искусственного интеллекта также широкое, намеренно. Вводная часть проекта закона фокусируется на использовании искусственного интеллекта, а не на его техническом составе. Определение искусственного интеллекта в Законе охватывает:

Методы машинного обучения: Обучение с учителем, обучение без учителя и обучение с подкреплением, глубокое обучение;

Логические или знаниевые подходы: Представление знаний, индуктивное (логическое) программирование, базы знаний, логический вывод и экспертные системы;

Статистические подходы: Байесовская оценка, методы поиска и оптимизации.

Одной из ключевых частей предлагаемого закона является Оценка соответствия систем искусственного интеллекта, признанных высоким риском. Это предусматривает идеи о том, что системы искусственного интеллекта должны прилагать усилия для снижения риска сбоев и добросовестно разрешать любые воспринимаемые недостатки доверия.

Более конкретно:

Тщательное контролирование дизайна, разработки и использования технологий искусственного интеллекта и оценка этических, юридических и социальных последствий этих технологий

(Источник — CapAI)

Вышеприведенная цитата взята из публикации исследователей Oxford о процессе оценки соответствия их системам искусственного интеллекта capAI.

Приготовьтесь, вы, вероятно, будете слышать об этом в течение следующих 2–3 лет.

Источник: capAI

Примечание: Я привожу текст capAI ниже напрямую, если вы хотите прочитать его самостоятельно, ссылка здесь.

capAI — Оценка соответствия Oxford

Итак, что такое capAI? Это процедура проведения оценки соответствия систем искусственного интеллекта в соответствии с Законом об искусственном интеллекте ЕС. Это практическое руководство по тому, как высокоуровневая этика может быть переведена в процедуры, которые помогают формировать дизайн, реализацию и использование искусственного интеллекта.

Словами самих исследователей, у него широкоформатные два основных применения в виду.

Поставщикам “Высокорисковых ИИ-систем” необходимо продемонстрировать соответствие Акту ЕС о ИИ.

Поставщикам “Низкорисковых ИИ-систем” необходимо операционализировать свои обязательства перед добровольными кодексами поведения.

(Кредит — CapAI)

Сама процедура оценки соответствия имеет три компонента: IRP, SDS, ESC.

  1. Внутренний протокол проверки (IRP)
  2. Краткий информационный лист (SDS)
  3. Внешняя оценка (ESC)

(Я не могу не подумать о CTRL, ALT, DEL, когда вижу все это вместе)

Исследователи утверждают, что вместе они обеспечивают всестороннюю проверку, демонстрирующую соответствие Акту о ИИ. Процесс внутренней проверки кажется самым всесторонним запросом и подчеркивает множество моментов, которые необходимо учесть и, что важно, задокументировать.

Давайте рассмотрим каждый компонент:

Внутренний протокол проверки (IRP)

Это внутренняя модель управления качеством и управления рисками.

  • Внутренняя документация. Не предназначена для публичного доступа.
  • Поддержка разработки технической документации.
  • Он сосредоточен на 5 этапах “Жизненного цикла ИИ”, чтобы помочь заинтересованным сторонам управлять своими ИИ-системами.
  • Проектирование. Разработка. Оценка. Ввод в эксплуатацию. Выключение.
Кредит — capAI
  • Определяет роли и обязанности и рассматривает 4 ключевых заинтересованных сторон на каждом этапе жизненного цикла ИИ.
  • Ответственные руководители, руководители проектов, владельцы продуктов, и ученые по данным

Например, ученые по данным активно участвуют в этапах Разработки и Оценки. Как ученый по данным, вы задумывались об этом? Можете ли вы подтвердить это? Вы согласованы с другими заинтересованными сторонами в своих ответах?

Разработка — Документация по разработке модели:

  • Организация задокументировала производительность ИИ в среде обучения?
  • Были ли задокументированы и обоснованы гиперпараметры?

Оценка — Тестирование модели:

  • Организация задокументировала производительность ИИ в среде тестирования?
  • Тестирование проводилось с учетом рисков устойчивости и дискриминации? Вы знакомы с факторами для тестирования? Они были учтены в рисках, выявленных вашим руководителем проекта?
  • Модель была протестирована на производительность при экстремальных значениях и на защищенные атрибуты?
  • Выявлены типичные сбои (Анализ способов сбоя и их эффективности), например, кривые ошибок, анализ переобучения и исследование неверных прогнозов.
  • Были рассмотрены ключевые способы сбоя?

Краткий информационный лист (SDS)

Один из обязательств Акта о ИИ требует от заинтересованных сторон публичной регистрации их ИИ-систем. Это предоставляет руководство.

  • Публично доступный документ
  • Краткое описание цели, функции и производительности ИИ-системы

Внешняя оценка (ESC)

  • Публично доступный документ
  • Суммирует ключевые элементы IRP для общественного использования
  • Цель, ценности, данные и управление

Заключительные мысли

Здесь многое нужно проанализировать. Сначала кажется сложным. Признание команде capAI, что это значительный шаг вперед в наличии некоторого руководства по отношению к довольно широкому закону.

Напомним, что сам закон, вероятно, будет окончательно принят не ранее 2025 года, с двухлетним сроком для выполнения. Однако исследования не стоят на месте, и авторы этой работы, безусловно, проделали большую работу.

Для подготовки к действию этого закона потребуется сотрудничество между подразделениями в организации. Чем больше организация, тем сложнее обеспечить согласованность между заинтересованными сторонами. Для малых компаний выполнение требований и документирование до запуска на европейский рынок (для систем с высоким уровнем риска) являются сложными задачами в управлении ресурсами и преимуществом в предметной области.

Спасибо за чтение! Если вам понравилось, оставьте аплодисменты, и я рассмотрю дальнейшее влияние на Data Science / Product Owner.

Если у вас есть вопросы о том, как это может повлиять на ваш бизнес, или вы хотите услышать больше, свяжитесь с нами!